OSDN Git Service

AMDGPU: Run instnamer on a few tests
authorMatt Arsenault <Matthew.Arsenault@amd.com>
Sat, 23 Jan 2016 05:42:43 +0000 (05:42 +0000)
committerMatt Arsenault <Matthew.Arsenault@amd.com>
Sat, 23 Jan 2016 05:42:43 +0000 (05:42 +0000)
This will make future test updates easier

git-svn-id: https://llvm.org/svn/llvm-project/llvm/trunk@258613 91177308-0d34-0410-b5e6-96231b3b80d8

test/CodeGen/AMDGPU/sgpr-copy.ll
test/CodeGen/AMDGPU/si-lod-bias.ll
test/CodeGen/AMDGPU/si-scheduler.ll
test/CodeGen/AMDGPU/si-sgpr-spill.ll

index 3e70a84..5346128 100644 (file)
 
 ; This test checks that no VGPR to SGPR copies are created by the register
 ; allocator.
+
 ; CHECK-LABEL: {{^}}phi1:
 ; CHECK: s_buffer_load_dword [[DST:s[0-9]]], {{s\[[0-9]+:[0-9]+\]}}, 0x0
 ; CHECK: v_mov_b32_e32 v{{[0-9]}}, [[DST]]
-
-define void @phi1(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @phi1(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 {
 main_body:
-  %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0
-  %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1
-  %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 0)
-  %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16)
-  %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 32)
-  %25 = fptosi float %23 to i32
-  %26 = icmp ne i32 %25, 0
-  br i1 %26, label %ENDIF, label %ELSE
+  %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0
+  %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 0)
+  %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16)
+  %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 32)
+  %tmp24 = fptosi float %tmp22 to i32
+  %tmp25 = icmp ne i32 %tmp24, 0
+  br i1 %tmp25, label %ENDIF, label %ELSE
 
 ELSE:                                             ; preds = %main_body
-  %27 = fsub float -0.000000e+00, %22
+  %tmp26 = fsub float -0.000000e+00, %tmp21
   br label %ENDIF
 
-ENDIF:                                            ; preds = %main_body, %ELSE
-  %temp.0 = phi float [ %27, %ELSE ], [ %22, %main_body ]
-  %28 = fadd float %temp.0, %24
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %28, float %28, float 0.000000e+00, float 1.000000e+00)
+ENDIF:                                            ; preds = %ELSE, %main_body
+  %temp.0 = phi float [ %tmp26, %ELSE ], [ %tmp21, %main_body ]
+  %tmp27 = fadd float %temp.0, %tmp23
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %tmp27, float %tmp27, float 0.000000e+00, float 1.000000e+00)
   ret void
 }
 
 ; Make sure this program doesn't crash
 ; CHECK-LABEL: {{^}}phi2:
-define void @phi2(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @phi2(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 {
 main_body:
-  %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0
-  %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1
-  %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16)
-  %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 32)
-  %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 36)
-  %25 = call float @llvm.SI.load.const(<16 x i8> %21, i32 40)
-  %26 = call float @llvm.SI.load.const(<16 x i8> %21, i32 48)
-  %27 = call float @llvm.SI.load.const(<16 x i8> %21, i32 52)
-  %28 = call float @llvm.SI.load.const(<16 x i8> %21, i32 56)
-  %29 = call float @llvm.SI.load.const(<16 x i8> %21, i32 64)
-  %30 = call float @llvm.SI.load.const(<16 x i8> %21, i32 68)
-  %31 = call float @llvm.SI.load.const(<16 x i8> %21, i32 72)
-  %32 = call float @llvm.SI.load.const(<16 x i8> %21, i32 76)
-  %33 = call float @llvm.SI.load.const(<16 x i8> %21, i32 80)
-  %34 = call float @llvm.SI.load.const(<16 x i8> %21, i32 84)
-  %35 = call float @llvm.SI.load.const(<16 x i8> %21, i32 88)
-  %36 = call float @llvm.SI.load.const(<16 x i8> %21, i32 92)
-  %37 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %2, i32 0
-  %38 = load <32 x i8>, <32 x i8> addrspace(2)* %37, !tbaa !1
-  %39 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %1, i32 0
-  %40 = load <16 x i8>, <16 x i8> addrspace(2)* %39, !tbaa !1
-  %41 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %3, <2 x i32> %5)
-  %42 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %3, <2 x i32> %5)
-  %43 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %3, <2 x i32> %5)
-  %44 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %3, <2 x i32> %5)
-  %45 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %3, <2 x i32> %5)
-  %46 = bitcast float %41 to i32
-  %47 = bitcast float %42 to i32
-  %48 = insertelement <2 x i32> undef, i32 %46, i32 0
-  %49 = insertelement <2 x i32> %48, i32 %47, i32 1
-  %50 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %49, <32 x i8> %38, <16 x i8> %40, i32 2)
-  %51 = extractelement <4 x float> %50, i32 2
-  %52 = call float @fabs(float %51)
-  %53 = fmul float %43, %43
-  %54 = fmul float %44, %44
-  %55 = fadd float %54, %53
-  %56 = fmul float %45, %45
-  %57 = fadd float %55, %56
-  %58 = call float @llvm.amdgcn.rsq.f32(float %57)
-  %59 = fmul float %43, %58
-  %60 = fmul float %44, %58
-  %61 = fmul float %45, %58
-  %62 = fmul float %59, %23
-  %63 = fmul float %60, %24
-  %64 = fadd float %63, %62
-  %65 = fmul float %61, %25
-  %66 = fadd float %64, %65
-  %67 = fsub float -0.000000e+00, %26
-  %68 = fmul float %66, %52
-  %69 = fadd float %68, %67
-  %70 = fmul float %27, %69
-  %71 = fmul float %28, %69
-  %72 = call float @fabs(float %70)
-  %73 = fcmp olt float 0x3EE4F8B580000000, %72
-  %74 = sext i1 %73 to i32
-  %75 = bitcast i32 %74 to float
-  %76 = bitcast float %75 to i32
-  %77 = icmp ne i32 %76, 0
-  br i1 %77, label %IF, label %ENDIF
+  %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0
+  %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16)
+  %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 32)
+  %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 36)
+  %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 40)
+  %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 48)
+  %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 52)
+  %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 56)
+  %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 64)
+  %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 68)
+  %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 72)
+  %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 76)
+  %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 80)
+  %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 84)
+  %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 88)
+  %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 92)
+  %tmp36 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %arg2, i32 0
+  %tmp37 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp36, !tbaa !0
+  %tmp38 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg1, i32 0
+  %tmp39 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp38, !tbaa !0
+  %tmp40 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg3, <2 x i32> %arg5)
+  %tmp41 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg3, <2 x i32> %arg5)
+  %tmp42 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg3, <2 x i32> %arg5)
+  %tmp43 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg3, <2 x i32> %arg5)
+  %tmp44 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg3, <2 x i32> %arg5)
+  %tmp45 = bitcast float %tmp40 to i32
+  %tmp46 = bitcast float %tmp41 to i32
+  %tmp47 = insertelement <2 x i32> undef, i32 %tmp45, i32 0
+  %tmp48 = insertelement <2 x i32> %tmp47, i32 %tmp46, i32 1
+  %tmp49 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp48, <32 x i8> %tmp37, <16 x i8> %tmp39, i32 2)
+  %tmp50 = extractelement <4 x float> %tmp49, i32 2
+  %tmp51 = call float @fabs(float %tmp50)
+  %tmp52 = fmul float %tmp42, %tmp42
+  %tmp53 = fmul float %tmp43, %tmp43
+  %tmp54 = fadd float %tmp53, %tmp52
+  %tmp55 = fmul float %tmp44, %tmp44
+  %tmp56 = fadd float %tmp54, %tmp55
+  %tmp57 = call float @llvm.amdgcn.rsq.f32(float %tmp56)
+  %tmp58 = fmul float %tmp42, %tmp57
+  %tmp59 = fmul float %tmp43, %tmp57
+  %tmp60 = fmul float %tmp44, %tmp57
+  %tmp61 = fmul float %tmp58, %tmp22
+  %tmp62 = fmul float %tmp59, %tmp23
+  %tmp63 = fadd float %tmp62, %tmp61
+  %tmp64 = fmul float %tmp60, %tmp24
+  %tmp65 = fadd float %tmp63, %tmp64
+  %tmp66 = fsub float -0.000000e+00, %tmp25
+  %tmp67 = fmul float %tmp65, %tmp51
+  %tmp68 = fadd float %tmp67, %tmp66
+  %tmp69 = fmul float %tmp26, %tmp68
+  %tmp70 = fmul float %tmp27, %tmp68
+  %tmp71 = call float @fabs(float %tmp69)
+  %tmp72 = fcmp olt float 0x3EE4F8B580000000, %tmp71
+  %tmp73 = sext i1 %tmp72 to i32
+  %tmp74 = bitcast i32 %tmp73 to float
+  %tmp75 = bitcast float %tmp74 to i32
+  %tmp76 = icmp ne i32 %tmp75, 0
+  br i1 %tmp76, label %IF, label %ENDIF
 
 IF:                                               ; preds = %main_body
-  %78 = fsub float -0.000000e+00, %70
-  %79 = call float @llvm.AMDIL.exp.(float %78)
-  %80 = fsub float -0.000000e+00, %79
-  %81 = fadd float 1.000000e+00, %80
-  %82 = fdiv float 1.000000e+00, %70
-  %83 = fmul float %81, %82
-  %84 = fmul float %32, %83
+  %tmp77 = fsub float -0.000000e+00, %tmp69
+  %tmp78 = call float @llvm.AMDIL.exp.(float %tmp77)
+  %tmp79 = fsub float -0.000000e+00, %tmp78
+  %tmp80 = fadd float 1.000000e+00, %tmp79
+  %tmp81 = fdiv float 1.000000e+00, %tmp69
+  %tmp82 = fmul float %tmp80, %tmp81
+  %tmp83 = fmul float %tmp31, %tmp82
   br label %ENDIF
 
-ENDIF:                                            ; preds = %main_body, %IF
-  %temp4.0 = phi float [ %84, %IF ], [ %32, %main_body ]
-  %85 = call float @fabs(float %71)
-  %86 = fcmp olt float 0x3EE4F8B580000000, %85
-  %87 = sext i1 %86 to i32
-  %88 = bitcast i32 %87 to float
-  %89 = bitcast float %88 to i32
-  %90 = icmp ne i32 %89, 0
-  br i1 %90, label %IF25, label %ENDIF24
+ENDIF:                                            ; preds = %IF, %main_body
+  %temp4.0 = phi float [ %tmp83, %IF ], [ %tmp31, %main_body ]
+  %tmp84 = call float @fabs(float %tmp70)
+  %tmp85 = fcmp olt float 0x3EE4F8B580000000, %tmp84
+  %tmp86 = sext i1 %tmp85 to i32
+  %tmp87 = bitcast i32 %tmp86 to float
+  %tmp88 = bitcast float %tmp87 to i32
+  %tmp89 = icmp ne i32 %tmp88, 0
+  br i1 %tmp89, label %IF25, label %ENDIF24
 
 IF25:                                             ; preds = %ENDIF
-  %91 = fsub float -0.000000e+00, %71
-  %92 = call float @llvm.AMDIL.exp.(float %91)
-  %93 = fsub float -0.000000e+00, %92
-  %94 = fadd float 1.000000e+00, %93
-  %95 = fdiv float 1.000000e+00, %71
-  %96 = fmul float %94, %95
-  %97 = fmul float %36, %96
+  %tmp90 = fsub float -0.000000e+00, %tmp70
+  %tmp91 = call float @llvm.AMDIL.exp.(float %tmp90)
+  %tmp92 = fsub float -0.000000e+00, %tmp91
+  %tmp93 = fadd float 1.000000e+00, %tmp92
+  %tmp94 = fdiv float 1.000000e+00, %tmp70
+  %tmp95 = fmul float %tmp93, %tmp94
+  %tmp96 = fmul float %tmp35, %tmp95
   br label %ENDIF24
 
-ENDIF24:                                          ; preds = %ENDIF, %IF25
-  %temp8.0 = phi float [ %97, %IF25 ], [ %36, %ENDIF ]
-  %98 = fmul float %29, %temp4.0
-  %99 = fmul float %30, %temp4.0
-  %100 = fmul float %31, %temp4.0
-  %101 = fmul float %33, %temp8.0
-  %102 = fadd float %101, %98
-  %103 = fmul float %34, %temp8.0
-  %104 = fadd float %103, %99
-  %105 = fmul float %35, %temp8.0
-  %106 = fadd float %105, %100
-  %107 = call float @llvm.pow.f32(float %52, float %22)
-  %108 = fsub float -0.000000e+00, %102
-  %109 = fmul float %108, %107
-  %110 = fsub float -0.000000e+00, %104
-  %111 = fmul float %110, %107
-  %112 = fsub float -0.000000e+00, %106
-  %113 = fmul float %112, %107
-  %114 = call i32 @llvm.SI.packf16(float %109, float %111)
-  %115 = bitcast i32 %114 to float
-  %116 = call i32 @llvm.SI.packf16(float %113, float 1.000000e+00)
-  %117 = bitcast i32 %116 to float
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %115, float %117, float %115, float %117)
+ENDIF24:                                          ; preds = %IF25, %ENDIF
+  %temp8.0 = phi float [ %tmp96, %IF25 ], [ %tmp35, %ENDIF ]
+  %tmp97 = fmul float %tmp28, %temp4.0
+  %tmp98 = fmul float %tmp29, %temp4.0
+  %tmp99 = fmul float %tmp30, %temp4.0
+  %tmp100 = fmul float %tmp32, %temp8.0
+  %tmp101 = fadd float %tmp100, %tmp97
+  %tmp102 = fmul float %tmp33, %temp8.0
+  %tmp103 = fadd float %tmp102, %tmp98
+  %tmp104 = fmul float %tmp34, %temp8.0
+  %tmp105 = fadd float %tmp104, %tmp99
+  %tmp106 = call float @llvm.pow.f32(float %tmp51, float %tmp21)
+  %tmp107 = fsub float -0.000000e+00, %tmp101
+  %tmp108 = fmul float %tmp107, %tmp106
+  %tmp109 = fsub float -0.000000e+00, %tmp103
+  %tmp110 = fmul float %tmp109, %tmp106
+  %tmp111 = fsub float -0.000000e+00, %tmp105
+  %tmp112 = fmul float %tmp111, %tmp106
+  %tmp113 = call i32 @llvm.SI.packf16(float %tmp108, float %tmp110)
+  %tmp114 = bitcast i32 %tmp113 to float
+  %tmp115 = call i32 @llvm.SI.packf16(float %tmp112, float 1.000000e+00)
+  %tmp116 = bitcast i32 %tmp115 to float
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp114, float %tmp116, float %tmp114, float %tmp116)
   ret void
 }
 
 ; We just want ot make sure the program doesn't crash
 ; CHECK-LABEL: {{^}}loop:
-
-define void @loop(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @loop(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 {
 main_body:
-  %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0
-  %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1
-  %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 0)
-  %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 4)
-  %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 8)
-  %25 = call float @llvm.SI.load.const(<16 x i8> %21, i32 12)
-  %26 = fptosi float %25 to i32
-  %27 = bitcast i32 %26 to float
-  %28 = bitcast float %27 to i32
+  %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0
+  %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 0)
+  %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 4)
+  %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 8)
+  %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 12)
+  %tmp25 = fptosi float %tmp24 to i32
+  %tmp26 = bitcast i32 %tmp25 to float
+  %tmp27 = bitcast float %tmp26 to i32
   br label %LOOP
 
 LOOP:                                             ; preds = %ENDIF, %main_body
-  %temp4.0 = phi float [ %22, %main_body ], [ %temp5.0, %ENDIF ]
-  %temp5.0 = phi float [ %23, %main_body ], [ %temp6.0, %ENDIF ]
-  %temp6.0 = phi float [ %24, %main_body ], [ %temp4.0, %ENDIF ]
-  %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %37, %ENDIF ]
-  %29 = bitcast float %temp8.0 to i32
-  %30 = icmp sge i32 %29, %28
-  %31 = sext i1 %30 to i32
-  %32 = bitcast i32 %31 to float
-  %33 = bitcast float %32 to i32
-  %34 = icmp ne i32 %33, 0
-  br i1 %34, label %IF, label %ENDIF
+  %temp4.0 = phi float [ %tmp21, %main_body ], [ %temp5.0, %ENDIF ]
+  %temp5.0 = phi float [ %tmp22, %main_body ], [ %temp6.0, %ENDIF ]
+  %temp6.0 = phi float [ %tmp23, %main_body ], [ %temp4.0, %ENDIF ]
+  %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %tmp36, %ENDIF ]
+  %tmp28 = bitcast float %temp8.0 to i32
+  %tmp29 = icmp sge i32 %tmp28, %tmp27
+  %tmp30 = sext i1 %tmp29 to i32
+  %tmp31 = bitcast i32 %tmp30 to float
+  %tmp32 = bitcast float %tmp31 to i32
+  %tmp33 = icmp ne i32 %tmp32, 0
+  br i1 %tmp33, label %IF, label %ENDIF
 
 IF:                                               ; preds = %LOOP
   call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp4.0, float %temp5.0, float %temp6.0, float 1.000000e+00)
   ret void
 
 ENDIF:                                            ; preds = %LOOP
-  %35 = bitcast float %temp8.0 to i32
-  %36 = add i32 %35, 1
-  %37 = bitcast i32 %36 to float
+  %tmp34 = bitcast float %temp8.0 to i32
+  %tmp35 = add i32 %tmp34, 1
+  %tmp36 = bitcast i32 %tmp35 to float
   br label %LOOP
 }
 
@@ -197,15 +196,6 @@ declare float @fabs(float) #2
 
 declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float)
 
-attributes #0 = { "ShaderType"="0" }
-attributes #1 = { nounwind readnone }
-attributes #2 = { readonly }
-attributes #3 = { readnone }
-attributes #4 = { nounwind readonly }
-
-!0 = !{!"const", null}
-!1 = !{!0, !0, i64 0, i32 1}
-
 ; Function Attrs: nounwind readnone
 declare float @llvm.SI.fs.interp(i32, i32, i32, <2 x i32>) #1
 
@@ -218,8 +208,8 @@ declare float @llvm.amdgcn.rsq.f32(float) #3
 ; Function Attrs: readnone
 declare float @llvm.AMDIL.exp.(float) #3
 
-; Function Attrs: nounwind readonly
-declare float @llvm.pow.f32(float, float) #4
+; Function Attrs: nounwind readnone
+declare float @llvm.pow.f32(float, float) #1
 
 ; Function Attrs: nounwind readnone
 declare i32 @llvm.SI.packf16(float, float) #1
@@ -233,99 +223,93 @@ declare i32 @llvm.SI.packf16(float, float) #1
 ; CHECK: image_sample
 ; CHECK: exp
 ; CHECK: s_endpgm
-define void @sample_v3([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
-
+define void @sample_v3([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
 entry:
-  %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0
-  %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !2
-  %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 16)
-  %24 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0
-  %25 = load <32 x i8>, <32 x i8> addrspace(2)* %24, !tbaa !2
-  %26 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0
-  %27 = load <16 x i8>, <16 x i8> addrspace(2)* %26, !tbaa !2
-  %28 = fcmp oeq float %23, 0.0
-  br i1 %28, label %if, label %else
-
-if:
-  %val.if = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> <i32 0, i32 0>, <32 x i8> %25, <16 x i8> %27, i32 2)
+  %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0
+  %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 16)
+  %tmp23 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0
+  %tmp24 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp23, !tbaa !0
+  %tmp25 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0
+  %tmp26 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp25, !tbaa !0
+  %tmp27 = fcmp oeq float %tmp22, 0.000000e+00
+  br i1 %tmp27, label %if, label %else
+
+if:                                               ; preds = %entry
+  %val.if = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> zeroinitializer, <32 x i8> %tmp24, <16 x i8> %tmp26, i32 2)
   %val.if.0 = extractelement <4 x float> %val.if, i32 0
   %val.if.1 = extractelement <4 x float> %val.if, i32 1
   %val.if.2 = extractelement <4 x float> %val.if, i32 2
   br label %endif
 
-else:
-  %val.else = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> <i32 1, i32 0>, <32 x i8> %25, <16 x i8> %27, i32 2)
+else:                                             ; preds = %entry
+  %val.else = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> <i32 1, i32 0>, <32 x i8> %tmp24, <16 x i8> %tmp26, i32 2)
   %val.else.0 = extractelement <4 x float> %val.else, i32 0
   %val.else.1 = extractelement <4 x float> %val.else, i32 1
   %val.else.2 = extractelement <4 x float> %val.else, i32 2
   br label %endif
 
-endif:
-  %val.0 = phi float [%val.if.0, %if], [%val.else.0, %else]
-  %val.1 = phi float [%val.if.1, %if], [%val.else.1, %else]
-  %val.2 = phi float [%val.if.2, %if], [%val.else.2, %else]
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %val.0, float %val.1, float %val.2, float 0.0)
+endif:                                            ; preds = %else, %if
+  %val.0 = phi float [ %val.if.0, %if ], [ %val.else.0, %else ]
+  %val.1 = phi float [ %val.if.1, %if ], [ %val.else.1, %else ]
+  %val.2 = phi float [ %val.if.2, %if ], [ %val.else.2, %else ]
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %val.0, float %val.1, float %val.2, float 0.000000e+00)
   ret void
 }
 
-!2 = !{!"const", null, i32 1}
-
 ; CHECK-LABEL: {{^}}copy1:
 ; CHECK: buffer_load_dword
 ; CHECK: v_add
 ; CHECK: s_endpgm
 define void @copy1(float addrspace(1)* %out, float addrspace(1)* %in0) {
 entry:
-  %0 = load float, float addrspace(1)* %in0
-  %1 = fcmp oeq float %0, 0.0
-  br i1 %1, label %if0, label %endif
+  %tmp = load float, float addrspace(1)* %in0
+  %tmp1 = fcmp oeq float %tmp, 0.000000e+00
+  br i1 %tmp1, label %if0, label %endif
 
-if0:
-  %2 = bitcast float %0 to i32
-  %3 = fcmp olt float %0, 0.0
-  br i1 %3, label %if1, label %endif
+if0:                                              ; preds = %entry
+  %tmp2 = bitcast float %tmp to i32
+  %tmp3 = fcmp olt float %tmp, 0.000000e+00
+  br i1 %tmp3, label %if1, label %endif
 
-if1:
-  %4 = add i32 %2, 1
+if1:                                              ; preds = %if0
+  %tmp4 = add i32 %tmp2, 1
   br label %endif
 
-endif:
-  %5 = phi i32 [ 0, %entry ], [ %2, %if0 ], [ %4, %if1 ]
-  %6 = bitcast i32 %5 to float
-  store float %6, float addrspace(1)* %out
+endif:                                            ; preds = %if1, %if0, %entry
+  %tmp5 = phi i32 [ 0, %entry ], [ %tmp2, %if0 ], [ %tmp4, %if1 ]
+  %tmp6 = bitcast i32 %tmp5 to float
+  store float %tmp6, float addrspace(1)* %out
   ret void
 }
 
 ; This test is just checking that we don't crash / assertion fail.
 ; CHECK-LABEL: {{^}}copy2:
 ; CHECK: s_endpgm
-
-define void @copy2([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @copy2([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
 entry:
   br label %LOOP68
 
-LOOP68:
+LOOP68:                                           ; preds = %ENDIF69, %entry
   %temp4.7 = phi float [ 0.000000e+00, %entry ], [ %v, %ENDIF69 ]
   %t = phi i32 [ 20, %entry ], [ %x, %ENDIF69 ]
   %g = icmp eq i32 0, %t
   %l = bitcast float %temp4.7 to i32
   br i1 %g, label %IF70, label %ENDIF69
 
-IF70:
+IF70:                                             ; preds = %LOOP68
   %q = icmp ne i32 %l, 13
   %temp.8 = select i1 %q, float 1.000000e+00, float 0.000000e+00
   call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp.8, float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
   ret void
 
-ENDIF69:
+ENDIF69:                                          ; preds = %LOOP68
   %u = add i32 %l, %t
   %v = bitcast i32 %u to float
   %x = add i32 %t, -1
   br label %LOOP68
 }
 
-attributes #0 = { "ShaderType"="0" }
-
 ; This test checks that image_sample resource descriptors aren't loaded into
 ; vgprs.  The verifier will fail if this happens.
 ; CHECK-LABEL:{{^}}sample_rsrc:
@@ -335,12 +319,12 @@ attributes #0 = { "ShaderType"="0" }
 define void @sample_rsrc([6 x <16 x i8>] addrspace(2)* byval %arg, [17 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <4 x i32>] addrspace(2)* byval %arg2, [32 x <8 x i32>] addrspace(2)* byval %arg3, float inreg %arg4, i32 inreg %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <2 x i32> %arg8, <3 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, <2 x i32> %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, i32 %arg19, float %arg20, float %arg21) #0 {
 bb:
   %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg1, i32 0, i32 0
-  %tmp22 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp22 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !2
   %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp22, i32 16)
   %tmp25 = getelementptr [32 x <8 x i32>], [32 x <8 x i32>] addrspace(2)* %arg3, i32 0, i32 0
-  %tmp26 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp25, !tbaa !0
+  %tmp26 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp25, !tbaa !2
   %tmp27 = getelementptr [16 x <4 x i32>], [16 x <4 x i32>] addrspace(2)* %arg2, i32 0, i32 0
-  %tmp28 = load <4 x i32>, <4 x i32> addrspace(2)* %tmp27, !tbaa !0
+  %tmp28 = load <4 x i32>, <4 x i32> addrspace(2)* %tmp27, !tbaa !2
   %tmp29 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg5, <2 x i32> %arg7)
   %tmp30 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg5, <2 x i32> %arg7)
   %tmp31 = bitcast float %tmp23 to i32
@@ -377,3 +361,9 @@ bb71:                                             ; preds = %bb80, %bb38
 
 attributes #0 = { "ShaderType"="0" "unsafe-fp-math"="true" }
 attributes #1 = { nounwind readnone }
+attributes #2 = { readonly }
+attributes #3 = { readnone }
+
+!0 = !{!1, !1, i64 0, i32 1}
+!1 = !{!"const", null}
+!2 = !{!1, !1, i64 0}
index 944499a..a3c8a23 100644 (file)
@@ -6,31 +6,30 @@
 
 ; CHECK: {{^}}main:
 ; CHECK: image_sample_b v{{\[[0-9]:[0-9]\]}}, 15, 0, 0, 0, 0, 0, 0, 0, v{{\[[0-9]:[0-9]\]}}
-
-define void @main(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @main(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 {
 main_body:
-  %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0
-  %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1
-  %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16)
-  %23 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %2, i32 0
-  %24 = load <32 x i8>, <32 x i8> addrspace(2)* %23, !tbaa !1
-  %25 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %1, i32 0
-  %26 = load <16 x i8>, <16 x i8> addrspace(2)* %25, !tbaa !1
-  %27 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %3, <2 x i32> %5)
-  %28 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %3, <2 x i32> %5)
-  %29 = bitcast float %22 to i32
-  %30 = bitcast float %27 to i32
-  %31 = bitcast float %28 to i32
-  %32 = insertelement <4 x i32> undef, i32 %29, i32 0
-  %33 = insertelement <4 x i32> %32, i32 %30, i32 1
-  %34 = insertelement <4 x i32> %33, i32 %31, i32 2
-  %35 = insertelement <4 x i32> %34, i32 undef, i32 3
-  %36 = call <4 x float> @llvm.SI.sampleb.v4i32(<4 x i32> %35, <32 x i8> %24, <16 x i8> %26, i32 2)
-  %37 = extractelement <4 x float> %36, i32 0
-  %38 = extractelement <4 x float> %36, i32 1
-  %39 = extractelement <4 x float> %36, i32 2
-  %40 = extractelement <4 x float> %36, i32 3
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %37, float %38, float %39, float %40)
+  %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0
+  %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16)
+  %tmp22 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %arg2, i32 0
+  %tmp23 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp22, !tbaa !0
+  %tmp24 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg1, i32 0
+  %tmp25 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp24, !tbaa !0
+  %tmp26 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg3, <2 x i32> %arg5)
+  %tmp27 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg3, <2 x i32> %arg5)
+  %tmp28 = bitcast float %tmp21 to i32
+  %tmp29 = bitcast float %tmp26 to i32
+  %tmp30 = bitcast float %tmp27 to i32
+  %tmp31 = insertelement <4 x i32> undef, i32 %tmp28, i32 0
+  %tmp32 = insertelement <4 x i32> %tmp31, i32 %tmp29, i32 1
+  %tmp33 = insertelement <4 x i32> %tmp32, i32 %tmp30, i32 2
+  %tmp34 = insertelement <4 x i32> %tmp33, i32 undef, i32 3
+  %tmp35 = call <4 x float> @llvm.SI.sampleb.v4i32(<4 x i32> %tmp34, <32 x i8> %tmp23, <16 x i8> %tmp25, i32 2)
+  %tmp36 = extractelement <4 x float> %tmp35, i32 0
+  %tmp37 = extractelement <4 x float> %tmp35, i32 1
+  %tmp38 = extractelement <4 x float> %tmp35, i32 2
+  %tmp39 = extractelement <4 x float> %tmp35, i32 3
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %tmp36, float %tmp37, float %tmp38, float %tmp39)
   ret void
 }
 
@@ -48,5 +47,5 @@ declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float
 attributes #0 = { "ShaderType"="0" }
 attributes #1 = { nounwind readnone }
 
-!0 = !{!"const", null}
-!1 = !{!0, !0, i64 0, i32 1}
+!0 = !{!1, !1, i64 0, i32 1}
+!1 = !{!"const", null}
index 66a9571..f7ebe01 100644 (file)
 ; CHECK: s_waitcnt vmcnt(0)
 ; CHECK: exp
 ; CHECK: s_endpgm
-
-define void @main([6 x <16 x i8>] addrspace(2)* byval, [17 x <16 x i8>] addrspace(2)* byval, [17 x <4 x i32>] addrspace(2)* byval, [34 x <8 x i32>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, 
-<2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, i32, float, float) #0 {
+define void @main([6 x <16 x i8>] addrspace(2)* byval %arg, [17 x <16 x i8>] addrspace(2)* byval %arg1, [17 x <4 x i32>] addrspace(2)* byval %arg2, [34 x <8 x i32>] addrspace(2)* byval %arg3, float inreg %arg4, i32 inreg %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <2 x i32> %arg8, <3 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, <2 x i32> %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, i32 %arg19, float %arg20, float %arg21) #0 {
 main_body:
-  %22 = bitcast [34 x <8 x i32>] addrspace(2)* %3 to <32 x i8> addrspace(2)*
-  %23 = load <32 x i8>, <32 x i8> addrspace(2)* %22, align 32, !tbaa !0
-  %24 = bitcast [17 x <4 x i32>] addrspace(2)* %2 to <16 x i8> addrspace(2)*
-  %25 = load <16 x i8>, <16 x i8> addrspace(2)* %24, align 16, !tbaa !0
-  %26 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %5, <2 x i32> %11)
-  %27 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %5, <2 x i32> %11)
-  %28 = bitcast float %26 to i32
-  %29 = bitcast float %27 to i32
-  %30 = insertelement <2 x i32> undef, i32 %28, i32 0
-  %31 = insertelement <2 x i32> %30, i32 %29, i32 1
-  %32 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %31, <32 x i8> %23, <16 x i8> %25, i32 2)
-  %33 = extractelement <4 x float> %32, i32 0
-  %34 = extractelement <4 x float> %32, i32 1
-  %35 = extractelement <4 x float> %32, i32 2
-  %36 = extractelement <4 x float> %32, i32 3
-  %37 = call i32 @llvm.SI.packf16(float %33, float %34)
-  %38 = bitcast i32 %37 to float
-  %39 = call i32 @llvm.SI.packf16(float %35, float %36)
-  %40 = bitcast i32 %39 to float
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %38, float %40, float %38, float %40)
+  %tmp = bitcast [34 x <8 x i32>] addrspace(2)* %arg3 to <32 x i8> addrspace(2)*
+  %tmp22 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp, align 32, !tbaa !0
+  %tmp23 = bitcast [17 x <4 x i32>] addrspace(2)* %arg2 to <16 x i8> addrspace(2)*
+  %tmp24 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp23, align 16, !tbaa !0
+  %tmp25 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg5, <2 x i32> %arg11)
+  %tmp26 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg5, <2 x i32> %arg11)
+  %tmp27 = bitcast float %tmp25 to i32
+  %tmp28 = bitcast float %tmp26 to i32
+  %tmp29 = insertelement <2 x i32> undef, i32 %tmp27, i32 0
+  %tmp30 = insertelement <2 x i32> %tmp29, i32 %tmp28, i32 1
+  %tmp31 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp30, <32 x i8> %tmp22, <16 x i8> %tmp24, i32 2)
+  %tmp32 = extractelement <4 x float> %tmp31, i32 0
+  %tmp33 = extractelement <4 x float> %tmp31, i32 1
+  %tmp34 = extractelement <4 x float> %tmp31, i32 2
+  %tmp35 = extractelement <4 x float> %tmp31, i32 3
+  %tmp36 = call i32 @llvm.SI.packf16(float %tmp32, float %tmp33)
+  %tmp37 = bitcast i32 %tmp36 to float
+  %tmp38 = call i32 @llvm.SI.packf16(float %tmp34, float %tmp35)
+  %tmp39 = bitcast i32 %tmp38 to float
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp37, float %tmp39, float %tmp37, float %tmp39)
   ret void
 }
 
@@ -52,4 +50,5 @@ declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float
 attributes #0 = { "ShaderType"="0" "enable-no-nans-fp-math"="true" }
 attributes #1 = { nounwind readnone }
 
-!0 = !{!"const", null, i32 1}
+!0 = !{!1, !1, i64 0, i32 1}
+!1 = !{!"const", null}
index 6e29cf6..e26db5f 100644 (file)
@@ -4,6 +4,7 @@
 ; These tests check that the compiler won't crash when it needs to spill
 ; SGPRs.
 
+
 @ddxy_lds = external addrspace(3) global [64 x i32]
 
 ; CHECK-LABEL: {{^}}main:
 ; Writing to M0 from an SMRD instruction will hang the GPU.
 ; CHECK-NOT: s_buffer_load_dword m0
 ; CHECK: s_endpgm
-define void @main([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #1 {
+define void @main([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
 main_body:
-  %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0
-  %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !0
-  %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 96)
-  %24 = call float @llvm.SI.load.const(<16 x i8> %22, i32 100)
-  %25 = call float @llvm.SI.load.const(<16 x i8> %22, i32 104)
-  %26 = call float @llvm.SI.load.const(<16 x i8> %22, i32 112)
-  %27 = call float @llvm.SI.load.const(<16 x i8> %22, i32 116)
-  %28 = call float @llvm.SI.load.const(<16 x i8> %22, i32 120)
-  %29 = call float @llvm.SI.load.const(<16 x i8> %22, i32 128)
-  %30 = call float @llvm.SI.load.const(<16 x i8> %22, i32 132)
-  %31 = call float @llvm.SI.load.const(<16 x i8> %22, i32 140)
-  %32 = call float @llvm.SI.load.const(<16 x i8> %22, i32 144)
-  %33 = call float @llvm.SI.load.const(<16 x i8> %22, i32 160)
-  %34 = call float @llvm.SI.load.const(<16 x i8> %22, i32 176)
-  %35 = call float @llvm.SI.load.const(<16 x i8> %22, i32 180)
-  %36 = call float @llvm.SI.load.const(<16 x i8> %22, i32 184)
-  %37 = call float @llvm.SI.load.const(<16 x i8> %22, i32 192)
-  %38 = call float @llvm.SI.load.const(<16 x i8> %22, i32 196)
-  %39 = call float @llvm.SI.load.const(<16 x i8> %22, i32 200)
-  %40 = call float @llvm.SI.load.const(<16 x i8> %22, i32 208)
-  %41 = call float @llvm.SI.load.const(<16 x i8> %22, i32 212)
-  %42 = call float @llvm.SI.load.const(<16 x i8> %22, i32 216)
-  %43 = call float @llvm.SI.load.const(<16 x i8> %22, i32 224)
-  %44 = call float @llvm.SI.load.const(<16 x i8> %22, i32 240)
-  %45 = call float @llvm.SI.load.const(<16 x i8> %22, i32 244)
-  %46 = call float @llvm.SI.load.const(<16 x i8> %22, i32 248)
-  %47 = call float @llvm.SI.load.const(<16 x i8> %22, i32 256)
-  %48 = call float @llvm.SI.load.const(<16 x i8> %22, i32 272)
-  %49 = call float @llvm.SI.load.const(<16 x i8> %22, i32 276)
-  %50 = call float @llvm.SI.load.const(<16 x i8> %22, i32 280)
-  %51 = call float @llvm.SI.load.const(<16 x i8> %22, i32 288)
-  %52 = call float @llvm.SI.load.const(<16 x i8> %22, i32 292)
-  %53 = call float @llvm.SI.load.const(<16 x i8> %22, i32 296)
-  %54 = call float @llvm.SI.load.const(<16 x i8> %22, i32 304)
-  %55 = call float @llvm.SI.load.const(<16 x i8> %22, i32 308)
-  %56 = call float @llvm.SI.load.const(<16 x i8> %22, i32 312)
-  %57 = call float @llvm.SI.load.const(<16 x i8> %22, i32 368)
-  %58 = call float @llvm.SI.load.const(<16 x i8> %22, i32 372)
-  %59 = call float @llvm.SI.load.const(<16 x i8> %22, i32 376)
-  %60 = call float @llvm.SI.load.const(<16 x i8> %22, i32 384)
-  %61 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0
-  %62 = load <32 x i8>, <32 x i8> addrspace(2)* %61, !tbaa !0
-  %63 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0
-  %64 = load <16 x i8>, <16 x i8> addrspace(2)* %63, !tbaa !0
-  %65 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 1
-  %66 = load <32 x i8>, <32 x i8> addrspace(2)* %65, !tbaa !0
-  %67 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 1
-  %68 = load <16 x i8>, <16 x i8> addrspace(2)* %67, !tbaa !0
-  %69 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 2
-  %70 = load <32 x i8>, <32 x i8> addrspace(2)* %69, !tbaa !0
-  %71 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 2
-  %72 = load <16 x i8>, <16 x i8> addrspace(2)* %71, !tbaa !0
-  %73 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 3
-  %74 = load <32 x i8>, <32 x i8> addrspace(2)* %73, !tbaa !0
-  %75 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 3
-  %76 = load <16 x i8>, <16 x i8> addrspace(2)* %75, !tbaa !0
-  %77 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 4
-  %78 = load <32 x i8>, <32 x i8> addrspace(2)* %77, !tbaa !0
-  %79 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 4
-  %80 = load <16 x i8>, <16 x i8> addrspace(2)* %79, !tbaa !0
-  %81 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 5
-  %82 = load <32 x i8>, <32 x i8> addrspace(2)* %81, !tbaa !0
-  %83 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 5
-  %84 = load <16 x i8>, <16 x i8> addrspace(2)* %83, !tbaa !0
-  %85 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 6
-  %86 = load <32 x i8>, <32 x i8> addrspace(2)* %85, !tbaa !0
-  %87 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 6
-  %88 = load <16 x i8>, <16 x i8> addrspace(2)* %87, !tbaa !0
-  %89 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 7
-  %90 = load <32 x i8>, <32 x i8> addrspace(2)* %89, !tbaa !0
-  %91 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 7
-  %92 = load <16 x i8>, <16 x i8> addrspace(2)* %91, !tbaa !0
-  %93 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %4, <2 x i32> %6)
-  %94 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %4, <2 x i32> %6)
-  %95 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %4, <2 x i32> %6)
-  %96 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %4, <2 x i32> %6)
-  %97 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %4, <2 x i32> %6)
-  %98 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %4, <2 x i32> %6)
-  %99 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %4, <2 x i32> %6)
-  %100 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %4, <2 x i32> %6)
-  %101 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %4, <2 x i32> %6)
-  %102 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %4, <2 x i32> %6)
-  %103 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %4, <2 x i32> %6)
-  %104 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %4, <2 x i32> %6)
-  %105 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %4, <2 x i32> %6)
-  %106 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %4, <2 x i32> %6)
-  %107 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %4, <2 x i32> %6)
-  %108 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %4, <2 x i32> %6)
-  %109 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %4, <2 x i32> %6)
-  %110 = call i32 @llvm.SI.tid()
-  %111 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %110
-  %112 = bitcast float %93 to i32
-  store i32 %112, i32 addrspace(3)* %111
-  %113 = bitcast float %94 to i32
-  store i32 %113, i32 addrspace(3)* %111
-  %114 = call i32 @llvm.SI.tid()
-  %115 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %114
-  %116 = and i32 %114, -4
-  %117 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %116
-  %118 = add i32 %116, 1
-  %119 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %118
-  %120 = bitcast float %93 to i32
-  store i32 %120, i32 addrspace(3)* %115
-  %121 = load i32, i32 addrspace(3)* %117
-  %122 = bitcast i32 %121 to float
-  %123 = load i32, i32 addrspace(3)* %119
-  %124 = bitcast i32 %123 to float
-  %125 = fsub float %124, %122
-  %126 = bitcast float %94 to i32
-  store i32 %126, i32 addrspace(3)* %115
-  %127 = load i32, i32 addrspace(3)* %117
-  %128 = bitcast i32 %127 to float
-  %129 = load i32, i32 addrspace(3)* %119
-  %130 = bitcast i32 %129 to float
-  %131 = fsub float %130, %128
-  %132 = insertelement <4 x float> undef, float %125, i32 0
-  %133 = insertelement <4 x float> %132, float %131, i32 1
-  %134 = insertelement <4 x float> %133, float %131, i32 2
-  %135 = insertelement <4 x float> %134, float %131, i32 3
-  %136 = extractelement <4 x float> %135, i32 0
-  %137 = extractelement <4 x float> %135, i32 1
-  %138 = fmul float %60, %93
-  %139 = fmul float %60, %94
-  %140 = fmul float %60, %94
-  %141 = fmul float %60, %94
-  %142 = call i32 @llvm.SI.tid()
-  %143 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %142
-  %144 = bitcast float %138 to i32
-  store i32 %144, i32 addrspace(3)* %143
-  %145 = bitcast float %139 to i32
-  store i32 %145, i32 addrspace(3)* %143
-  %146 = bitcast float %140 to i32
-  store i32 %146, i32 addrspace(3)* %143
-  %147 = bitcast float %141 to i32
-  store i32 %147, i32 addrspace(3)* %143
-  %148 = call i32 @llvm.SI.tid()
-  %149 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %148
-  %150 = and i32 %148, -4
-  %151 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %150
-  %152 = add i32 %150, 2
-  %153 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %152
-  %154 = bitcast float %138 to i32
-  store i32 %154, i32 addrspace(3)* %149
-  %155 = load i32, i32 addrspace(3)* %151
-  %156 = bitcast i32 %155 to float
-  %157 = load i32, i32 addrspace(3)* %153
-  %158 = bitcast i32 %157 to float
-  %159 = fsub float %158, %156
-  %160 = bitcast float %139 to i32
-  store i32 %160, i32 addrspace(3)* %149
-  %161 = load i32, i32 addrspace(3)* %151
-  %162 = bitcast i32 %161 to float
-  %163 = load i32, i32 addrspace(3)* %153
-  %164 = bitcast i32 %163 to float
-  %165 = fsub float %164, %162
-  %166 = bitcast float %140 to i32
-  store i32 %166, i32 addrspace(3)* %149
-  %167 = load i32, i32 addrspace(3)* %151
-  %168 = bitcast i32 %167 to float
-  %169 = load i32, i32 addrspace(3)* %153
-  %170 = bitcast i32 %169 to float
-  %171 = fsub float %170, %168
-  %172 = bitcast float %141 to i32
-  store i32 %172, i32 addrspace(3)* %149
-  %173 = load i32, i32 addrspace(3)* %151
-  %174 = bitcast i32 %173 to float
-  %175 = load i32, i32 addrspace(3)* %153
-  %176 = bitcast i32 %175 to float
-  %177 = fsub float %176, %174
-  %178 = insertelement <4 x float> undef, float %159, i32 0
-  %179 = insertelement <4 x float> %178, float %165, i32 1
-  %180 = insertelement <4 x float> %179, float %171, i32 2
-  %181 = insertelement <4 x float> %180, float %177, i32 3
-  %182 = extractelement <4 x float> %181, i32 0
-  %183 = extractelement <4 x float> %181, i32 1
-  %184 = fdiv float 1.000000e+00, %97
-  %185 = fmul float %33, %184
-  %186 = fcmp uge float 1.000000e+00, %185
-  %187 = select i1 %186, float %185, float 1.000000e+00
-  %188 = fmul float %187, %30
-  %189 = call float @ceil(float %188)
-  %190 = fcmp uge float 3.000000e+00, %189
-  %191 = select i1 %190, float 3.000000e+00, float %189
-  %192 = fdiv float 1.000000e+00, %191
-  %193 = fdiv float 1.000000e+00, %30
-  %194 = fmul float %191, %193
-  %195 = fmul float %31, %194
-  %196 = fmul float %95, %95
-  %197 = fmul float %96, %96
-  %198 = fadd float %197, %196
-  %199 = fmul float %97, %97
-  %200 = fadd float %198, %199
-  %201 = call float @llvm.amdgcn.rsq.f32(float %200)
-  %202 = fmul float %95, %201
-  %203 = fmul float %96, %201
-  %204 = fmul float %202, %29
-  %205 = fmul float %203, %29
-  %206 = fmul float %204, -1.000000e+00
-  %207 = fmul float %205, 1.000000e+00
-  %208 = fmul float %206, %32
-  %209 = fmul float %207, %32
-  %210 = fsub float -0.000000e+00, %208
-  %211 = fadd float %93, %210
-  %212 = fsub float -0.000000e+00, %209
-  %213 = fadd float %94, %212
-  %214 = fmul float %206, %192
-  %215 = fmul float %207, %192
-  %216 = fmul float -1.000000e+00, %192
-  %217 = bitcast float %136 to i32
-  %218 = bitcast float %182 to i32
-  %219 = bitcast float %137 to i32
-  %220 = bitcast float %183 to i32
-  %221 = insertelement <8 x i32> undef, i32 %217, i32 0
-  %222 = insertelement <8 x i32> %221, i32 %218, i32 1
-  %223 = insertelement <8 x i32> %222, i32 %219, i32 2
-  %224 = insertelement <8 x i32> %223, i32 %220, i32 3
+  %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0
+  %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 96)
+  %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 100)
+  %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 104)
+  %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 112)
+  %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 116)
+  %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 120)
+  %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 128)
+  %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 132)
+  %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 140)
+  %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 144)
+  %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 160)
+  %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 176)
+  %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 180)
+  %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 184)
+  %tmp36 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 192)
+  %tmp37 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 196)
+  %tmp38 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 200)
+  %tmp39 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 208)
+  %tmp40 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 212)
+  %tmp41 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 216)
+  %tmp42 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 224)
+  %tmp43 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 240)
+  %tmp44 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 244)
+  %tmp45 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 248)
+  %tmp46 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 256)
+  %tmp47 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 272)
+  %tmp48 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 276)
+  %tmp49 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 280)
+  %tmp50 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 288)
+  %tmp51 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 292)
+  %tmp52 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 296)
+  %tmp53 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 304)
+  %tmp54 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 308)
+  %tmp55 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 312)
+  %tmp56 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 368)
+  %tmp57 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 372)
+  %tmp58 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 376)
+  %tmp59 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 384)
+  %tmp60 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0
+  %tmp61 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp60, !tbaa !0
+  %tmp62 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0
+  %tmp63 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp62, !tbaa !0
+  %tmp64 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 1
+  %tmp65 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp64, !tbaa !0
+  %tmp66 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 1
+  %tmp67 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp66, !tbaa !0
+  %tmp68 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 2
+  %tmp69 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp68, !tbaa !0
+  %tmp70 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 2
+  %tmp71 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp70, !tbaa !0
+  %tmp72 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 3
+  %tmp73 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp72, !tbaa !0
+  %tmp74 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 3
+  %tmp75 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp74, !tbaa !0
+  %tmp76 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 4
+  %tmp77 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp76, !tbaa !0
+  %tmp78 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 4
+  %tmp79 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp78, !tbaa !0
+  %tmp80 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 5
+  %tmp81 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp80, !tbaa !0
+  %tmp82 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 5
+  %tmp83 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp82, !tbaa !0
+  %tmp84 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 6
+  %tmp85 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp84, !tbaa !0
+  %tmp86 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 6
+  %tmp87 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp86, !tbaa !0
+  %tmp88 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 7
+  %tmp89 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp88, !tbaa !0
+  %tmp90 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 7
+  %tmp91 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp90, !tbaa !0
+  %tmp92 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp93 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp94 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp95 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp96 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp97 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp98 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp99 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp100 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp101 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp102 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp103 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp104 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp105 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp106 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp107 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp108 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp109 = call i32 @llvm.SI.tid()
+  %tmp110 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp109
+  %tmp111 = bitcast float %tmp92 to i32
+  store i32 %tmp111, i32 addrspace(3)* %tmp110
+  %tmp112 = bitcast float %tmp93 to i32
+  store i32 %tmp112, i32 addrspace(3)* %tmp110
+  %tmp113 = call i32 @llvm.SI.tid()
+  %tmp114 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp113
+  %tmp115 = and i32 %tmp113, -4
+  %tmp116 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp115
+  %tmp117 = add i32 %tmp115, 1
+  %tmp118 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp117
+  %tmp119 = bitcast float %tmp92 to i32
+  store i32 %tmp119, i32 addrspace(3)* %tmp114
+  %tmp120 = load i32, i32 addrspace(3)* %tmp116
+  %tmp121 = bitcast i32 %tmp120 to float
+  %tmp122 = load i32, i32 addrspace(3)* %tmp118
+  %tmp123 = bitcast i32 %tmp122 to float
+  %tmp124 = fsub float %tmp123, %tmp121
+  %tmp125 = bitcast float %tmp93 to i32
+  store i32 %tmp125, i32 addrspace(3)* %tmp114
+  %tmp126 = load i32, i32 addrspace(3)* %tmp116
+  %tmp127 = bitcast i32 %tmp126 to float
+  %tmp128 = load i32, i32 addrspace(3)* %tmp118
+  %tmp129 = bitcast i32 %tmp128 to float
+  %tmp130 = fsub float %tmp129, %tmp127
+  %tmp131 = insertelement <4 x float> undef, float %tmp124, i32 0
+  %tmp132 = insertelement <4 x float> %tmp131, float %tmp130, i32 1
+  %tmp133 = insertelement <4 x float> %tmp132, float %tmp130, i32 2
+  %tmp134 = insertelement <4 x float> %tmp133, float %tmp130, i32 3
+  %tmp135 = extractelement <4 x float> %tmp134, i32 0
+  %tmp136 = extractelement <4 x float> %tmp134, i32 1
+  %tmp137 = fmul float %tmp59, %tmp92
+  %tmp138 = fmul float %tmp59, %tmp93
+  %tmp139 = fmul float %tmp59, %tmp93
+  %tmp140 = fmul float %tmp59, %tmp93
+  %tmp141 = call i32 @llvm.SI.tid()
+  %tmp142 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp141
+  %tmp143 = bitcast float %tmp137 to i32
+  store i32 %tmp143, i32 addrspace(3)* %tmp142
+  %tmp144 = bitcast float %tmp138 to i32
+  store i32 %tmp144, i32 addrspace(3)* %tmp142
+  %tmp145 = bitcast float %tmp139 to i32
+  store i32 %tmp145, i32 addrspace(3)* %tmp142
+  %tmp146 = bitcast float %tmp140 to i32
+  store i32 %tmp146, i32 addrspace(3)* %tmp142
+  %tmp147 = call i32 @llvm.SI.tid()
+  %tmp148 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp147
+  %tmp149 = and i32 %tmp147, -4
+  %tmp150 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp149
+  %tmp151 = add i32 %tmp149, 2
+  %tmp152 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp151
+  %tmp153 = bitcast float %tmp137 to i32
+  store i32 %tmp153, i32 addrspace(3)* %tmp148
+  %tmp154 = load i32, i32 addrspace(3)* %tmp150
+  %tmp155 = bitcast i32 %tmp154 to float
+  %tmp156 = load i32, i32 addrspace(3)* %tmp152
+  %tmp157 = bitcast i32 %tmp156 to float
+  %tmp158 = fsub float %tmp157, %tmp155
+  %tmp159 = bitcast float %tmp138 to i32
+  store i32 %tmp159, i32 addrspace(3)* %tmp148
+  %tmp160 = load i32, i32 addrspace(3)* %tmp150
+  %tmp161 = bitcast i32 %tmp160 to float
+  %tmp162 = load i32, i32 addrspace(3)* %tmp152
+  %tmp163 = bitcast i32 %tmp162 to float
+  %tmp164 = fsub float %tmp163, %tmp161
+  %tmp165 = bitcast float %tmp139 to i32
+  store i32 %tmp165, i32 addrspace(3)* %tmp148
+  %tmp166 = load i32, i32 addrspace(3)* %tmp150
+  %tmp167 = bitcast i32 %tmp166 to float
+  %tmp168 = load i32, i32 addrspace(3)* %tmp152
+  %tmp169 = bitcast i32 %tmp168 to float
+  %tmp170 = fsub float %tmp169, %tmp167
+  %tmp171 = bitcast float %tmp140 to i32
+  store i32 %tmp171, i32 addrspace(3)* %tmp148
+  %tmp172 = load i32, i32 addrspace(3)* %tmp150
+  %tmp173 = bitcast i32 %tmp172 to float
+  %tmp174 = load i32, i32 addrspace(3)* %tmp152
+  %tmp175 = bitcast i32 %tmp174 to float
+  %tmp176 = fsub float %tmp175, %tmp173
+  %tmp177 = insertelement <4 x float> undef, float %tmp158, i32 0
+  %tmp178 = insertelement <4 x float> %tmp177, float %tmp164, i32 1
+  %tmp179 = insertelement <4 x float> %tmp178, float %tmp170, i32 2
+  %tmp180 = insertelement <4 x float> %tmp179, float %tmp176, i32 3
+  %tmp181 = extractelement <4 x float> %tmp180, i32 0
+  %tmp182 = extractelement <4 x float> %tmp180, i32 1
+  %tmp183 = fdiv float 1.000000e+00, %tmp96
+  %tmp184 = fmul float %tmp32, %tmp183
+  %tmp185 = fcmp uge float 1.000000e+00, %tmp184
+  %tmp186 = select i1 %tmp185, float %tmp184, float 1.000000e+00
+  %tmp187 = fmul float %tmp186, %tmp29
+  %tmp188 = call float @ceil(float %tmp187)
+  %tmp189 = fcmp uge float 3.000000e+00, %tmp188
+  %tmp190 = select i1 %tmp189, float 3.000000e+00, float %tmp188
+  %tmp191 = fdiv float 1.000000e+00, %tmp190
+  %tmp192 = fdiv float 1.000000e+00, %tmp29
+  %tmp193 = fmul float %tmp190, %tmp192
+  %tmp194 = fmul float %tmp30, %tmp193
+  %tmp195 = fmul float %tmp94, %tmp94
+  %tmp196 = fmul float %tmp95, %tmp95
+  %tmp197 = fadd float %tmp196, %tmp195
+  %tmp198 = fmul float %tmp96, %tmp96
+  %tmp199 = fadd float %tmp197, %tmp198
+  %tmp200 = call float @llvm.amdgcn.rsq.f32(float %tmp199)
+  %tmp201 = fmul float %tmp94, %tmp200
+  %tmp202 = fmul float %tmp95, %tmp200
+  %tmp203 = fmul float %tmp201, %tmp28
+  %tmp204 = fmul float %tmp202, %tmp28
+  %tmp205 = fmul float %tmp203, -1.000000e+00
+  %tmp206 = fmul float %tmp204, 1.000000e+00
+  %tmp207 = fmul float %tmp205, %tmp31
+  %tmp208 = fmul float %tmp206, %tmp31
+  %tmp209 = fsub float -0.000000e+00, %tmp207
+  %tmp210 = fadd float %tmp92, %tmp209
+  %tmp211 = fsub float -0.000000e+00, %tmp208
+  %tmp212 = fadd float %tmp93, %tmp211
+  %tmp213 = fmul float %tmp205, %tmp191
+  %tmp214 = fmul float %tmp206, %tmp191
+  %tmp215 = fmul float -1.000000e+00, %tmp191
+  %tmp216 = bitcast float %tmp135 to i32
+  %tmp217 = bitcast float %tmp181 to i32
+  %tmp218 = bitcast float %tmp136 to i32
+  %tmp219 = bitcast float %tmp182 to i32
+  %tmp220 = insertelement <8 x i32> undef, i32 %tmp216, i32 0
+  %tmp221 = insertelement <8 x i32> %tmp220, i32 %tmp217, i32 1
+  %tmp222 = insertelement <8 x i32> %tmp221, i32 %tmp218, i32 2
+  %tmp223 = insertelement <8 x i32> %tmp222, i32 %tmp219, i32 3
   br label %LOOP
 
 LOOP:                                             ; preds = %ENDIF, %main_body
-  %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %258, %ENDIF ]
-  %temp28.0 = phi float [ %211, %main_body ], [ %253, %ENDIF ]
-  %temp29.0 = phi float [ %213, %main_body ], [ %255, %ENDIF ]
-  %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %257, %ENDIF ]
-  %225 = fcmp oge float %temp24.0, %191
-  %226 = sext i1 %225 to i32
-  %227 = bitcast i32 %226 to float
-  %228 = bitcast float %227 to i32
-  %229 = icmp ne i32 %228, 0
-  br i1 %229, label %IF, label %ENDIF
+  %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp257, %ENDIF ]
+  %temp28.0 = phi float [ %tmp210, %main_body ], [ %tmp252, %ENDIF ]
+  %temp29.0 = phi float [ %tmp212, %main_body ], [ %tmp254, %ENDIF ]
+  %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp256, %ENDIF ]
+  %tmp224 = fcmp oge float %temp24.0, %tmp190
+  %tmp225 = sext i1 %tmp224 to i32
+  %tmp226 = bitcast i32 %tmp225 to float
+  %tmp227 = bitcast float %tmp226 to i32
+  %tmp228 = icmp ne i32 %tmp227, 0
+  br i1 %tmp228, label %IF, label %ENDIF
 
 IF:                                               ; preds = %LOOP
-  %230 = bitcast float %136 to i32
-  %231 = bitcast float %182 to i32
-  %232 = bitcast float %137 to i32
-  %233 = bitcast float %183 to i32
-  %234 = insertelement <8 x i32> undef, i32 %230, i32 0
-  %235 = insertelement <8 x i32> %234, i32 %231, i32 1
-  %236 = insertelement <8 x i32> %235, i32 %232, i32 2
-  %237 = insertelement <8 x i32> %236, i32 %233, i32 3
+  %tmp229 = bitcast float %tmp135 to i32
+  %tmp230 = bitcast float %tmp181 to i32
+  %tmp231 = bitcast float %tmp136 to i32
+  %tmp232 = bitcast float %tmp182 to i32
+  %tmp233 = insertelement <8 x i32> undef, i32 %tmp229, i32 0
+  %tmp234 = insertelement <8 x i32> %tmp233, i32 %tmp230, i32 1
+  %tmp235 = insertelement <8 x i32> %tmp234, i32 %tmp231, i32 2
+  %tmp236 = insertelement <8 x i32> %tmp235, i32 %tmp232, i32 3
   br label %LOOP65
 
 ENDIF:                                            ; preds = %LOOP
-  %238 = bitcast float %temp28.0 to i32
-  %239 = bitcast float %temp29.0 to i32
-  %240 = insertelement <8 x i32> %224, i32 %238, i32 4
-  %241 = insertelement <8 x i32> %240, i32 %239, i32 5
-  %242 = insertelement <8 x i32> %241, i32 undef, i32 6
-  %243 = insertelement <8 x i32> %242, i32 undef, i32 7
-  %244 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %243, <32 x i8> %62, <16 x i8> %64, i32 2)
-  %245 = extractelement <4 x float> %244, i32 3
-  %246 = fcmp oge float %temp30.0, %245
-  %247 = sext i1 %246 to i32
-  %248 = bitcast i32 %247 to float
-  %249 = bitcast float %248 to i32
-  %250 = and i32 %249, 1065353216
-  %251 = bitcast i32 %250 to float
-  %252 = fmul float %214, %251
-  %253 = fadd float %252, %temp28.0
-  %254 = fmul float %215, %251
-  %255 = fadd float %254, %temp29.0
-  %256 = fmul float %216, %251
-  %257 = fadd float %256, %temp30.0
-  %258 = fadd float %temp24.0, 1.000000e+00
+  %tmp237 = bitcast float %temp28.0 to i32
+  %tmp238 = bitcast float %temp29.0 to i32
+  %tmp239 = insertelement <8 x i32> %tmp223, i32 %tmp237, i32 4
+  %tmp240 = insertelement <8 x i32> %tmp239, i32 %tmp238, i32 5
+  %tmp241 = insertelement <8 x i32> %tmp240, i32 undef, i32 6
+  %tmp242 = insertelement <8 x i32> %tmp241, i32 undef, i32 7
+  %tmp243 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp242, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2)
+  %tmp244 = extractelement <4 x float> %tmp243, i32 3
+  %tmp245 = fcmp oge float %temp30.0, %tmp244
+  %tmp246 = sext i1 %tmp245 to i32
+  %tmp247 = bitcast i32 %tmp246 to float
+  %tmp248 = bitcast float %tmp247 to i32
+  %tmp249 = and i32 %tmp248, 1065353216
+  %tmp250 = bitcast i32 %tmp249 to float
+  %tmp251 = fmul float %tmp213, %tmp250
+  %tmp252 = fadd float %tmp251, %temp28.0
+  %tmp253 = fmul float %tmp214, %tmp250
+  %tmp254 = fadd float %tmp253, %temp29.0
+  %tmp255 = fmul float %tmp215, %tmp250
+  %tmp256 = fadd float %tmp255, %temp30.0
+  %tmp257 = fadd float %temp24.0, 1.000000e+00
   br label %LOOP
 
 LOOP65:                                           ; preds = %ENDIF66, %IF
-  %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %610, %ENDIF66 ]
-  %temp28.1 = phi float [ %temp28.0, %IF ], [ %605, %ENDIF66 ]
-  %temp29.1 = phi float [ %temp29.0, %IF ], [ %607, %ENDIF66 ]
-  %temp30.1 = phi float [ %temp30.0, %IF ], [ %609, %ENDIF66 ]
-  %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %611, %ENDIF66 ]
-  %259 = fcmp oge float %temp24.1, %195
-  %260 = sext i1 %259 to i32
-  %261 = bitcast i32 %260 to float
-  %262 = bitcast float %261 to i32
-  %263 = icmp ne i32 %262, 0
-  br i1 %263, label %IF67, label %ENDIF66
+  %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %tmp609, %ENDIF66 ]
+  %temp28.1 = phi float [ %temp28.0, %IF ], [ %tmp604, %ENDIF66 ]
+  %temp29.1 = phi float [ %temp29.0, %IF ], [ %tmp606, %ENDIF66 ]
+  %temp30.1 = phi float [ %temp30.0, %IF ], [ %tmp608, %ENDIF66 ]
+  %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %tmp610, %ENDIF66 ]
+  %tmp258 = fcmp oge float %temp24.1, %tmp194
+  %tmp259 = sext i1 %tmp258 to i32
+  %tmp260 = bitcast i32 %tmp259 to float
+  %tmp261 = bitcast float %tmp260 to i32
+  %tmp262 = icmp ne i32 %tmp261, 0
+  br i1 %tmp262, label %IF67, label %ENDIF66
 
 IF67:                                             ; preds = %LOOP65
-  %264 = bitcast float %136 to i32
-  %265 = bitcast float %182 to i32
-  %266 = bitcast float %137 to i32
-  %267 = bitcast float %183 to i32
-  %268 = bitcast float %temp28.1 to i32
-  %269 = bitcast float %temp29.1 to i32
-  %270 = insertelement <8 x i32> undef, i32 %264, i32 0
-  %271 = insertelement <8 x i32> %270, i32 %265, i32 1
-  %272 = insertelement <8 x i32> %271, i32 %266, i32 2
-  %273 = insertelement <8 x i32> %272, i32 %267, i32 3
-  %274 = insertelement <8 x i32> %273, i32 %268, i32 4
-  %275 = insertelement <8 x i32> %274, i32 %269, i32 5
-  %276 = insertelement <8 x i32> %275, i32 undef, i32 6
-  %277 = insertelement <8 x i32> %276, i32 undef, i32 7
-  %278 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %277, <32 x i8> %66, <16 x i8> %68, i32 2)
-  %279 = extractelement <4 x float> %278, i32 0
-  %280 = extractelement <4 x float> %278, i32 1
-  %281 = extractelement <4 x float> %278, i32 2
-  %282 = extractelement <4 x float> %278, i32 3
-  %283 = fmul float %282, %47
-  %284 = bitcast float %136 to i32
-  %285 = bitcast float %182 to i32
-  %286 = bitcast float %137 to i32
-  %287 = bitcast float %183 to i32
-  %288 = bitcast float %temp28.1 to i32
-  %289 = bitcast float %temp29.1 to i32
-  %290 = insertelement <8 x i32> undef, i32 %284, i32 0
-  %291 = insertelement <8 x i32> %290, i32 %285, i32 1
-  %292 = insertelement <8 x i32> %291, i32 %286, i32 2
-  %293 = insertelement <8 x i32> %292, i32 %287, i32 3
-  %294 = insertelement <8 x i32> %293, i32 %288, i32 4
-  %295 = insertelement <8 x i32> %294, i32 %289, i32 5
-  %296 = insertelement <8 x i32> %295, i32 undef, i32 6
-  %297 = insertelement <8 x i32> %296, i32 undef, i32 7
-  %298 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %297, <32 x i8> %82, <16 x i8> %84, i32 2)
-  %299 = extractelement <4 x float> %298, i32 0
-  %300 = extractelement <4 x float> %298, i32 1
-  %301 = extractelement <4 x float> %298, i32 2
-  %302 = bitcast float %136 to i32
-  %303 = bitcast float %182 to i32
-  %304 = bitcast float %137 to i32
-  %305 = bitcast float %183 to i32
-  %306 = bitcast float %temp28.1 to i32
-  %307 = bitcast float %temp29.1 to i32
-  %308 = insertelement <8 x i32> undef, i32 %302, i32 0
-  %309 = insertelement <8 x i32> %308, i32 %303, i32 1
-  %310 = insertelement <8 x i32> %309, i32 %304, i32 2
-  %311 = insertelement <8 x i32> %310, i32 %305, i32 3
-  %312 = insertelement <8 x i32> %311, i32 %306, i32 4
-  %313 = insertelement <8 x i32> %312, i32 %307, i32 5
-  %314 = insertelement <8 x i32> %313, i32 undef, i32 6
-  %315 = insertelement <8 x i32> %314, i32 undef, i32 7
-  %316 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %315, <32 x i8> %78, <16 x i8> %80, i32 2)
-  %317 = extractelement <4 x float> %316, i32 0
-  %318 = extractelement <4 x float> %316, i32 1
-  %319 = extractelement <4 x float> %316, i32 2
-  %320 = fmul float %317, %23
-  %321 = fmul float %318, %24
-  %322 = fmul float %319, %25
-  %323 = fmul float %299, %26
-  %324 = fadd float %323, %320
-  %325 = fmul float %300, %27
-  %326 = fadd float %325, %321
-  %327 = fmul float %301, %28
-  %328 = fadd float %327, %322
-  %329 = fadd float %279, %324
-  %330 = fadd float %280, %326
-  %331 = fadd float %281, %328
-  %332 = bitcast float %136 to i32
-  %333 = bitcast float %182 to i32
-  %334 = bitcast float %137 to i32
-  %335 = bitcast float %183 to i32
-  %336 = bitcast float %temp28.1 to i32
-  %337 = bitcast float %temp29.1 to i32
-  %338 = insertelement <8 x i32> undef, i32 %332, i32 0
-  %339 = insertelement <8 x i32> %338, i32 %333, i32 1
-  %340 = insertelement <8 x i32> %339, i32 %334, i32 2
-  %341 = insertelement <8 x i32> %340, i32 %335, i32 3
-  %342 = insertelement <8 x i32> %341, i32 %336, i32 4
-  %343 = insertelement <8 x i32> %342, i32 %337, i32 5
-  %344 = insertelement <8 x i32> %343, i32 undef, i32 6
-  %345 = insertelement <8 x i32> %344, i32 undef, i32 7
-  %346 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %345, <32 x i8> %62, <16 x i8> %64, i32 2)
-  %347 = extractelement <4 x float> %346, i32 0
-  %348 = extractelement <4 x float> %346, i32 1
-  %349 = extractelement <4 x float> %346, i32 2
-  %350 = fadd float %347, -5.000000e-01
-  %351 = fadd float %348, -5.000000e-01
-  %352 = fadd float %349, -5.000000e-01
-  %353 = fmul float %350, %350
-  %354 = fmul float %351, %351
-  %355 = fadd float %354, %353
-  %356 = fmul float %352, %352
-  %357 = fadd float %355, %356
-  %358 = call float @llvm.amdgcn.rsq.f32(float %357)
-  %359 = fmul float %350, %358
-  %360 = fmul float %351, %358
-  %361 = fmul float %352, %358
-  %362 = bitcast float %136 to i32
-  %363 = bitcast float %182 to i32
-  %364 = bitcast float %137 to i32
-  %365 = bitcast float %183 to i32
-  %366 = bitcast float %temp28.1 to i32
-  %367 = bitcast float %temp29.1 to i32
-  %368 = insertelement <8 x i32> undef, i32 %362, i32 0
-  %369 = insertelement <8 x i32> %368, i32 %363, i32 1
-  %370 = insertelement <8 x i32> %369, i32 %364, i32 2
-  %371 = insertelement <8 x i32> %370, i32 %365, i32 3
-  %372 = insertelement <8 x i32> %371, i32 %366, i32 4
-  %373 = insertelement <8 x i32> %372, i32 %367, i32 5
-  %374 = insertelement <8 x i32> %373, i32 undef, i32 6
-  %375 = insertelement <8 x i32> %374, i32 undef, i32 7
-  %376 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %375, <32 x i8> %70, <16 x i8> %72, i32 2)
-  %377 = extractelement <4 x float> %376, i32 0
-  %378 = extractelement <4 x float> %376, i32 1
-  %379 = extractelement <4 x float> %376, i32 2
-  %380 = extractelement <4 x float> %376, i32 3
-  %381 = fsub float -0.000000e+00, %95
-  %382 = fsub float -0.000000e+00, %96
-  %383 = fsub float -0.000000e+00, %97
-  %384 = fmul float %359, %381
-  %385 = fmul float %360, %382
-  %386 = fadd float %385, %384
-  %387 = fmul float %361, %383
-  %388 = fadd float %386, %387
-  %389 = fmul float %388, %359
-  %390 = fmul float %388, %360
-  %391 = fmul float %388, %361
-  %392 = fmul float 2.000000e+00, %389
-  %393 = fmul float 2.000000e+00, %390
-  %394 = fmul float 2.000000e+00, %391
-  %395 = fsub float -0.000000e+00, %392
-  %396 = fadd float %381, %395
-  %397 = fsub float -0.000000e+00, %393
-  %398 = fadd float %382, %397
-  %399 = fsub float -0.000000e+00, %394
-  %400 = fadd float %383, %399
-  %401 = fmul float %396, %98
-  %402 = fmul float %396, %99
-  %403 = fmul float %396, %100
-  %404 = fmul float %398, %101
-  %405 = fadd float %404, %401
-  %406 = fmul float %398, %102
-  %407 = fadd float %406, %402
-  %408 = fmul float %398, %103
-  %409 = fadd float %408, %403
-  %410 = fmul float %400, %104
-  %411 = fadd float %410, %405
-  %412 = fmul float %400, %105
-  %413 = fadd float %412, %407
-  %414 = fmul float %400, %106
-  %415 = fadd float %414, %409
-  %416 = bitcast float %136 to i32
-  %417 = bitcast float %182 to i32
-  %418 = bitcast float %137 to i32
-  %419 = bitcast float %183 to i32
-  %420 = bitcast float %temp28.1 to i32
-  %421 = bitcast float %temp29.1 to i32
-  %422 = insertelement <8 x i32> undef, i32 %416, i32 0
-  %423 = insertelement <8 x i32> %422, i32 %417, i32 1
-  %424 = insertelement <8 x i32> %423, i32 %418, i32 2
-  %425 = insertelement <8 x i32> %424, i32 %419, i32 3
-  %426 = insertelement <8 x i32> %425, i32 %420, i32 4
-  %427 = insertelement <8 x i32> %426, i32 %421, i32 5
-  %428 = insertelement <8 x i32> %427, i32 undef, i32 6
-  %429 = insertelement <8 x i32> %428, i32 undef, i32 7
-  %430 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %429, <32 x i8> %86, <16 x i8> %88, i32 2)
-  %431 = extractelement <4 x float> %430, i32 0
-  %432 = extractelement <4 x float> %430, i32 1
-  %433 = extractelement <4 x float> %430, i32 2
-  %434 = fmul float %48, %411
-  %435 = fmul float %49, %411
-  %436 = fmul float %50, %411
-  %437 = fmul float %51, %413
-  %438 = fadd float %437, %434
-  %439 = fmul float %52, %413
-  %440 = fadd float %439, %435
-  %441 = fmul float %53, %413
-  %442 = fadd float %441, %436
-  %443 = fmul float %54, %415
-  %444 = fadd float %443, %438
-  %445 = fmul float %55, %415
-  %446 = fadd float %445, %440
-  %447 = fmul float %56, %415
-  %448 = fadd float %447, %442
-  %449 = insertelement <4 x float> undef, float %444, i32 0
-  %450 = insertelement <4 x float> %449, float %446, i32 1
-  %451 = insertelement <4 x float> %450, float %448, i32 2
-  %452 = insertelement <4 x float> %451, float %195, i32 3
-  %453 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %452)
-  %454 = extractelement <4 x float> %453, i32 0
-  %455 = extractelement <4 x float> %453, i32 1
-  %456 = extractelement <4 x float> %453, i32 2
-  %457 = extractelement <4 x float> %453, i32 3
-  %458 = call float @fabs(float %456)
-  %459 = fdiv float 1.000000e+00, %458
-  %460 = fmul float %454, %459
-  %461 = fadd float %460, 1.500000e+00
-  %462 = fmul float %455, %459
-  %463 = fadd float %462, 1.500000e+00
-  %464 = bitcast float %463 to i32
-  %465 = bitcast float %461 to i32
-  %466 = bitcast float %457 to i32
-  %467 = insertelement <4 x i32> undef, i32 %464, i32 0
-  %468 = insertelement <4 x i32> %467, i32 %465, i32 1
-  %469 = insertelement <4 x i32> %468, i32 %466, i32 2
-  %470 = insertelement <4 x i32> %469, i32 undef, i32 3
-  %471 = call <4 x float> @llvm.SI.sample.v4i32(<4 x i32> %470, <32 x i8> %90, <16 x i8> %92, i32 4)
-  %472 = extractelement <4 x float> %471, i32 0
-  %473 = extractelement <4 x float> %471, i32 1
-  %474 = extractelement <4 x float> %471, i32 2
-  %475 = fmul float %431, %472
-  %476 = fadd float %475, %329
-  %477 = fmul float %432, %473
-  %478 = fadd float %477, %330
-  %479 = fmul float %433, %474
-  %480 = fadd float %479, %331
-  %481 = fmul float %107, %107
-  %482 = fmul float %108, %108
-  %483 = fadd float %482, %481
-  %484 = fmul float %109, %109
-  %485 = fadd float %483, %484
-  %486 = call float @llvm.amdgcn.rsq.f32(float %485)
-  %487 = fmul float %107, %486
-  %488 = fmul float %108, %486
-  %489 = fmul float %109, %486
-  %490 = fmul float %377, %40
-  %491 = fmul float %378, %41
-  %492 = fmul float %379, %42
-  %493 = fmul float %359, %487
-  %494 = fmul float %360, %488
-  %495 = fadd float %494, %493
-  %496 = fmul float %361, %489
-  %497 = fadd float %495, %496
-  %498 = fmul float %497, %359
-  %499 = fmul float %497, %360
-  %500 = fmul float %497, %361
-  %501 = fmul float 2.000000e+00, %498
-  %502 = fmul float 2.000000e+00, %499
-  %503 = fmul float 2.000000e+00, %500
-  %504 = fsub float -0.000000e+00, %501
-  %505 = fadd float %487, %504
-  %506 = fsub float -0.000000e+00, %502
-  %507 = fadd float %488, %506
-  %508 = fsub float -0.000000e+00, %503
-  %509 = fadd float %489, %508
-  %510 = fmul float %95, %95
-  %511 = fmul float %96, %96
-  %512 = fadd float %511, %510
-  %513 = fmul float %97, %97
-  %514 = fadd float %512, %513
-  %515 = call float @llvm.amdgcn.rsq.f32(float %514)
-  %516 = fmul float %95, %515
-  %517 = fmul float %96, %515
-  %518 = fmul float %97, %515
-  %519 = fmul float %505, %516
-  %520 = fmul float %507, %517
-  %521 = fadd float %520, %519
-  %522 = fmul float %509, %518
-  %523 = fadd float %521, %522
-  %524 = fsub float -0.000000e+00, %523
-  %525 = fcmp uge float %524, 0.000000e+00
-  %526 = select i1 %525, float %524, float 0.000000e+00
-  %527 = fmul float %43, %380
-  %528 = fadd float %527, 1.000000e+00
-  %529 = call float @llvm.pow.f32(float %526, float %528)
-  %530 = fmul float %476, %37
-  %531 = fmul float %478, %38
-  %532 = fmul float %480, %39
-  %533 = fmul float %359, %487
-  %534 = fmul float %360, %488
-  %535 = fadd float %534, %533
-  %536 = fmul float %361, %489
-  %537 = fadd float %535, %536
-  %538 = fcmp uge float %537, 0.000000e+00
-  %539 = select i1 %538, float %537, float 0.000000e+00
-  %540 = fmul float %530, %539
-  %541 = fmul float %531, %539
-  %542 = fmul float %532, %539
-  %543 = fmul float %490, %529
-  %544 = fadd float %543, %540
-  %545 = fmul float %491, %529
-  %546 = fadd float %545, %541
-  %547 = fmul float %492, %529
-  %548 = fadd float %547, %542
-  %549 = fmul float %476, %34
-  %550 = fmul float %478, %35
-  %551 = fmul float %480, %36
-  %552 = fmul float %544, %57
-  %553 = fadd float %552, %549
-  %554 = fmul float %546, %58
-  %555 = fadd float %554, %550
-  %556 = fmul float %548, %59
-  %557 = fadd float %556, %551
-  %558 = bitcast float %136 to i32
-  %559 = bitcast float %182 to i32
-  %560 = bitcast float %137 to i32
-  %561 = bitcast float %183 to i32
-  %562 = bitcast float %temp28.1 to i32
-  %563 = bitcast float %temp29.1 to i32
-  %564 = insertelement <8 x i32> undef, i32 %558, i32 0
-  %565 = insertelement <8 x i32> %564, i32 %559, i32 1
-  %566 = insertelement <8 x i32> %565, i32 %560, i32 2
-  %567 = insertelement <8 x i32> %566, i32 %561, i32 3
-  %568 = insertelement <8 x i32> %567, i32 %562, i32 4
-  %569 = insertelement <8 x i32> %568, i32 %563, i32 5
-  %570 = insertelement <8 x i32> %569, i32 undef, i32 6
-  %571 = insertelement <8 x i32> %570, i32 undef, i32 7
-  %572 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %571, <32 x i8> %74, <16 x i8> %76, i32 2)
-  %573 = extractelement <4 x float> %572, i32 0
-  %574 = extractelement <4 x float> %572, i32 1
-  %575 = extractelement <4 x float> %572, i32 2
-  %576 = fmul float %573, %44
-  %577 = fadd float %576, %553
-  %578 = fmul float %574, %45
-  %579 = fadd float %578, %555
-  %580 = fmul float %575, %46
-  %581 = fadd float %580, %557
-  %582 = call i32 @llvm.SI.packf16(float %577, float %579)
-  %583 = bitcast i32 %582 to float
-  %584 = call i32 @llvm.SI.packf16(float %581, float %283)
-  %585 = bitcast i32 %584 to float
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %583, float %585, float %583, float %585)
+  %tmp263 = bitcast float %tmp135 to i32
+  %tmp264 = bitcast float %tmp181 to i32
+  %tmp265 = bitcast float %tmp136 to i32
+  %tmp266 = bitcast float %tmp182 to i32
+  %tmp267 = bitcast float %temp28.1 to i32
+  %tmp268 = bitcast float %temp29.1 to i32
+  %tmp269 = insertelement <8 x i32> undef, i32 %tmp263, i32 0
+  %tmp270 = insertelement <8 x i32> %tmp269, i32 %tmp264, i32 1
+  %tmp271 = insertelement <8 x i32> %tmp270, i32 %tmp265, i32 2
+  %tmp272 = insertelement <8 x i32> %tmp271, i32 %tmp266, i32 3
+  %tmp273 = insertelement <8 x i32> %tmp272, i32 %tmp267, i32 4
+  %tmp274 = insertelement <8 x i32> %tmp273, i32 %tmp268, i32 5
+  %tmp275 = insertelement <8 x i32> %tmp274, i32 undef, i32 6
+  %tmp276 = insertelement <8 x i32> %tmp275, i32 undef, i32 7
+  %tmp277 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp276, <32 x i8> %tmp65, <16 x i8> %tmp67, i32 2)
+  %tmp278 = extractelement <4 x float> %tmp277, i32 0
+  %tmp279 = extractelement <4 x float> %tmp277, i32 1
+  %tmp280 = extractelement <4 x float> %tmp277, i32 2
+  %tmp281 = extractelement <4 x float> %tmp277, i32 3
+  %tmp282 = fmul float %tmp281, %tmp46
+  %tmp283 = bitcast float %tmp135 to i32
+  %tmp284 = bitcast float %tmp181 to i32
+  %tmp285 = bitcast float %tmp136 to i32
+  %tmp286 = bitcast float %tmp182 to i32
+  %tmp287 = bitcast float %temp28.1 to i32
+  %tmp288 = bitcast float %temp29.1 to i32
+  %tmp289 = insertelement <8 x i32> undef, i32 %tmp283, i32 0
+  %tmp290 = insertelement <8 x i32> %tmp289, i32 %tmp284, i32 1
+  %tmp291 = insertelement <8 x i32> %tmp290, i32 %tmp285, i32 2
+  %tmp292 = insertelement <8 x i32> %tmp291, i32 %tmp286, i32 3
+  %tmp293 = insertelement <8 x i32> %tmp292, i32 %tmp287, i32 4
+  %tmp294 = insertelement <8 x i32> %tmp293, i32 %tmp288, i32 5
+  %tmp295 = insertelement <8 x i32> %tmp294, i32 undef, i32 6
+  %tmp296 = insertelement <8 x i32> %tmp295, i32 undef, i32 7
+  %tmp297 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp296, <32 x i8> %tmp81, <16 x i8> %tmp83, i32 2)
+  %tmp298 = extractelement <4 x float> %tmp297, i32 0
+  %tmp299 = extractelement <4 x float> %tmp297, i32 1
+  %tmp300 = extractelement <4 x float> %tmp297, i32 2
+  %tmp301 = bitcast float %tmp135 to i32
+  %tmp302 = bitcast float %tmp181 to i32
+  %tmp303 = bitcast float %tmp136 to i32
+  %tmp304 = bitcast float %tmp182 to i32
+  %tmp305 = bitcast float %temp28.1 to i32
+  %tmp306 = bitcast float %temp29.1 to i32
+  %tmp307 = insertelement <8 x i32> undef, i32 %tmp301, i32 0
+  %tmp308 = insertelement <8 x i32> %tmp307, i32 %tmp302, i32 1
+  %tmp309 = insertelement <8 x i32> %tmp308, i32 %tmp303, i32 2
+  %tmp310 = insertelement <8 x i32> %tmp309, i32 %tmp304, i32 3
+  %tmp311 = insertelement <8 x i32> %tmp310, i32 %tmp305, i32 4
+  %tmp312 = insertelement <8 x i32> %tmp311, i32 %tmp306, i32 5
+  %tmp313 = insertelement <8 x i32> %tmp312, i32 undef, i32 6
+  %tmp314 = insertelement <8 x i32> %tmp313, i32 undef, i32 7
+  %tmp315 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp314, <32 x i8> %tmp77, <16 x i8> %tmp79, i32 2)
+  %tmp316 = extractelement <4 x float> %tmp315, i32 0
+  %tmp317 = extractelement <4 x float> %tmp315, i32 1
+  %tmp318 = extractelement <4 x float> %tmp315, i32 2
+  %tmp319 = fmul float %tmp316, %tmp22
+  %tmp320 = fmul float %tmp317, %tmp23
+  %tmp321 = fmul float %tmp318, %tmp24
+  %tmp322 = fmul float %tmp298, %tmp25
+  %tmp323 = fadd float %tmp322, %tmp319
+  %tmp324 = fmul float %tmp299, %tmp26
+  %tmp325 = fadd float %tmp324, %tmp320
+  %tmp326 = fmul float %tmp300, %tmp27
+  %tmp327 = fadd float %tmp326, %tmp321
+  %tmp328 = fadd float %tmp278, %tmp323
+  %tmp329 = fadd float %tmp279, %tmp325
+  %tmp330 = fadd float %tmp280, %tmp327
+  %tmp331 = bitcast float %tmp135 to i32
+  %tmp332 = bitcast float %tmp181 to i32
+  %tmp333 = bitcast float %tmp136 to i32
+  %tmp334 = bitcast float %tmp182 to i32
+  %tmp335 = bitcast float %temp28.1 to i32
+  %tmp336 = bitcast float %temp29.1 to i32
+  %tmp337 = insertelement <8 x i32> undef, i32 %tmp331, i32 0
+  %tmp338 = insertelement <8 x i32> %tmp337, i32 %tmp332, i32 1
+  %tmp339 = insertelement <8 x i32> %tmp338, i32 %tmp333, i32 2
+  %tmp340 = insertelement <8 x i32> %tmp339, i32 %tmp334, i32 3
+  %tmp341 = insertelement <8 x i32> %tmp340, i32 %tmp335, i32 4
+  %tmp342 = insertelement <8 x i32> %tmp341, i32 %tmp336, i32 5
+  %tmp343 = insertelement <8 x i32> %tmp342, i32 undef, i32 6
+  %tmp344 = insertelement <8 x i32> %tmp343, i32 undef, i32 7
+  %tmp345 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp344, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2)
+  %tmp346 = extractelement <4 x float> %tmp345, i32 0
+  %tmp347 = extractelement <4 x float> %tmp345, i32 1
+  %tmp348 = extractelement <4 x float> %tmp345, i32 2
+  %tmp349 = fadd float %tmp346, -5.000000e-01
+  %tmp350 = fadd float %tmp347, -5.000000e-01
+  %tmp351 = fadd float %tmp348, -5.000000e-01
+  %tmp352 = fmul float %tmp349, %tmp349
+  %tmp353 = fmul float %tmp350, %tmp350
+  %tmp354 = fadd float %tmp353, %tmp352
+  %tmp355 = fmul float %tmp351, %tmp351
+  %tmp356 = fadd float %tmp354, %tmp355
+  %tmp357 = call float @llvm.amdgcn.rsq.f32(float %tmp356)
+  %tmp358 = fmul float %tmp349, %tmp357
+  %tmp359 = fmul float %tmp350, %tmp357
+  %tmp360 = fmul float %tmp351, %tmp357
+  %tmp361 = bitcast float %tmp135 to i32
+  %tmp362 = bitcast float %tmp181 to i32
+  %tmp363 = bitcast float %tmp136 to i32
+  %tmp364 = bitcast float %tmp182 to i32
+  %tmp365 = bitcast float %temp28.1 to i32
+  %tmp366 = bitcast float %temp29.1 to i32
+  %tmp367 = insertelement <8 x i32> undef, i32 %tmp361, i32 0
+  %tmp368 = insertelement <8 x i32> %tmp367, i32 %tmp362, i32 1
+  %tmp369 = insertelement <8 x i32> %tmp368, i32 %tmp363, i32 2
+  %tmp370 = insertelement <8 x i32> %tmp369, i32 %tmp364, i32 3
+  %tmp371 = insertelement <8 x i32> %tmp370, i32 %tmp365, i32 4
+  %tmp372 = insertelement <8 x i32> %tmp371, i32 %tmp366, i32 5
+  %tmp373 = insertelement <8 x i32> %tmp372, i32 undef, i32 6
+  %tmp374 = insertelement <8 x i32> %tmp373, i32 undef, i32 7
+  %tmp375 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp374, <32 x i8> %tmp69, <16 x i8> %tmp71, i32 2)
+  %tmp376 = extractelement <4 x float> %tmp375, i32 0
+  %tmp377 = extractelement <4 x float> %tmp375, i32 1
+  %tmp378 = extractelement <4 x float> %tmp375, i32 2
+  %tmp379 = extractelement <4 x float> %tmp375, i32 3
+  %tmp380 = fsub float -0.000000e+00, %tmp94
+  %tmp381 = fsub float -0.000000e+00, %tmp95
+  %tmp382 = fsub float -0.000000e+00, %tmp96
+  %tmp383 = fmul float %tmp358, %tmp380
+  %tmp384 = fmul float %tmp359, %tmp381
+  %tmp385 = fadd float %tmp384, %tmp383
+  %tmp386 = fmul float %tmp360, %tmp382
+  %tmp387 = fadd float %tmp385, %tmp386
+  %tmp388 = fmul float %tmp387, %tmp358
+  %tmp389 = fmul float %tmp387, %tmp359
+  %tmp390 = fmul float %tmp387, %tmp360
+  %tmp391 = fmul float 2.000000e+00, %tmp388
+  %tmp392 = fmul float 2.000000e+00, %tmp389
+  %tmp393 = fmul float 2.000000e+00, %tmp390
+  %tmp394 = fsub float -0.000000e+00, %tmp391
+  %tmp395 = fadd float %tmp380, %tmp394
+  %tmp396 = fsub float -0.000000e+00, %tmp392
+  %tmp397 = fadd float %tmp381, %tmp396
+  %tmp398 = fsub float -0.000000e+00, %tmp393
+  %tmp399 = fadd float %tmp382, %tmp398
+  %tmp400 = fmul float %tmp395, %tmp97
+  %tmp401 = fmul float %tmp395, %tmp98
+  %tmp402 = fmul float %tmp395, %tmp99
+  %tmp403 = fmul float %tmp397, %tmp100
+  %tmp404 = fadd float %tmp403, %tmp400
+  %tmp405 = fmul float %tmp397, %tmp101
+  %tmp406 = fadd float %tmp405, %tmp401
+  %tmp407 = fmul float %tmp397, %tmp102
+  %tmp408 = fadd float %tmp407, %tmp402
+  %tmp409 = fmul float %tmp399, %tmp103
+  %tmp410 = fadd float %tmp409, %tmp404
+  %tmp411 = fmul float %tmp399, %tmp104
+  %tmp412 = fadd float %tmp411, %tmp406
+  %tmp413 = fmul float %tmp399, %tmp105
+  %tmp414 = fadd float %tmp413, %tmp408
+  %tmp415 = bitcast float %tmp135 to i32
+  %tmp416 = bitcast float %tmp181 to i32
+  %tmp417 = bitcast float %tmp136 to i32
+  %tmp418 = bitcast float %tmp182 to i32
+  %tmp419 = bitcast float %temp28.1 to i32
+  %tmp420 = bitcast float %temp29.1 to i32
+  %tmp421 = insertelement <8 x i32> undef, i32 %tmp415, i32 0
+  %tmp422 = insertelement <8 x i32> %tmp421, i32 %tmp416, i32 1
+  %tmp423 = insertelement <8 x i32> %tmp422, i32 %tmp417, i32 2
+  %tmp424 = insertelement <8 x i32> %tmp423, i32 %tmp418, i32 3
+  %tmp425 = insertelement <8 x i32> %tmp424, i32 %tmp419, i32 4
+  %tmp426 = insertelement <8 x i32> %tmp425, i32 %tmp420, i32 5
+  %tmp427 = insertelement <8 x i32> %tmp426, i32 undef, i32 6
+  %tmp428 = insertelement <8 x i32> %tmp427, i32 undef, i32 7
+  %tmp429 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp428, <32 x i8> %tmp85, <16 x i8> %tmp87, i32 2)
+  %tmp430 = extractelement <4 x float> %tmp429, i32 0
+  %tmp431 = extractelement <4 x float> %tmp429, i32 1
+  %tmp432 = extractelement <4 x float> %tmp429, i32 2
+  %tmp433 = fmul float %tmp47, %tmp410
+  %tmp434 = fmul float %tmp48, %tmp410
+  %tmp435 = fmul float %tmp49, %tmp410
+  %tmp436 = fmul float %tmp50, %tmp412
+  %tmp437 = fadd float %tmp436, %tmp433
+  %tmp438 = fmul float %tmp51, %tmp412
+  %tmp439 = fadd float %tmp438, %tmp434
+  %tmp440 = fmul float %tmp52, %tmp412
+  %tmp441 = fadd float %tmp440, %tmp435
+  %tmp442 = fmul float %tmp53, %tmp414
+  %tmp443 = fadd float %tmp442, %tmp437
+  %tmp444 = fmul float %tmp54, %tmp414
+  %tmp445 = fadd float %tmp444, %tmp439
+  %tmp446 = fmul float %tmp55, %tmp414
+  %tmp447 = fadd float %tmp446, %tmp441
+  %tmp448 = insertelement <4 x float> undef, float %tmp443, i32 0
+  %tmp449 = insertelement <4 x float> %tmp448, float %tmp445, i32 1
+  %tmp450 = insertelement <4 x float> %tmp449, float %tmp447, i32 2
+  %tmp451 = insertelement <4 x float> %tmp450, float %tmp194, i32 3
+  %tmp452 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %tmp451)
+  %tmp453 = extractelement <4 x float> %tmp452, i32 0
+  %tmp454 = extractelement <4 x float> %tmp452, i32 1
+  %tmp455 = extractelement <4 x float> %tmp452, i32 2
+  %tmp456 = extractelement <4 x float> %tmp452, i32 3
+  %tmp457 = call float @fabs(float %tmp455)
+  %tmp458 = fdiv float 1.000000e+00, %tmp457
+  %tmp459 = fmul float %tmp453, %tmp458
+  %tmp460 = fadd float %tmp459, 1.500000e+00
+  %tmp461 = fmul float %tmp454, %tmp458
+  %tmp462 = fadd float %tmp461, 1.500000e+00
+  %tmp463 = bitcast float %tmp462 to i32
+  %tmp464 = bitcast float %tmp460 to i32
+  %tmp465 = bitcast float %tmp456 to i32
+  %tmp466 = insertelement <4 x i32> undef, i32 %tmp463, i32 0
+  %tmp467 = insertelement <4 x i32> %tmp466, i32 %tmp464, i32 1
+  %tmp468 = insertelement <4 x i32> %tmp467, i32 %tmp465, i32 2
+  %tmp469 = insertelement <4 x i32> %tmp468, i32 undef, i32 3
+  %tmp470 = call <4 x float> @llvm.SI.sample.v4i32(<4 x i32> %tmp469, <32 x i8> %tmp89, <16 x i8> %tmp91, i32 4)
+  %tmp471 = extractelement <4 x float> %tmp470, i32 0
+  %tmp472 = extractelement <4 x float> %tmp470, i32 1
+  %tmp473 = extractelement <4 x float> %tmp470, i32 2
+  %tmp474 = fmul float %tmp430, %tmp471
+  %tmp475 = fadd float %tmp474, %tmp328
+  %tmp476 = fmul float %tmp431, %tmp472
+  %tmp477 = fadd float %tmp476, %tmp329
+  %tmp478 = fmul float %tmp432, %tmp473
+  %tmp479 = fadd float %tmp478, %tmp330
+  %tmp480 = fmul float %tmp106, %tmp106
+  %tmp481 = fmul float %tmp107, %tmp107
+  %tmp482 = fadd float %tmp481, %tmp480
+  %tmp483 = fmul float %tmp108, %tmp108
+  %tmp484 = fadd float %tmp482, %tmp483
+  %tmp485 = call float @llvm.amdgcn.rsq.f32(float %tmp484)
+  %tmp486 = fmul float %tmp106, %tmp485
+  %tmp487 = fmul float %tmp107, %tmp485
+  %tmp488 = fmul float %tmp108, %tmp485
+  %tmp489 = fmul float %tmp376, %tmp39
+  %tmp490 = fmul float %tmp377, %tmp40
+  %tmp491 = fmul float %tmp378, %tmp41
+  %tmp492 = fmul float %tmp358, %tmp486
+  %tmp493 = fmul float %tmp359, %tmp487
+  %tmp494 = fadd float %tmp493, %tmp492
+  %tmp495 = fmul float %tmp360, %tmp488
+  %tmp496 = fadd float %tmp494, %tmp495
+  %tmp497 = fmul float %tmp496, %tmp358
+  %tmp498 = fmul float %tmp496, %tmp359
+  %tmp499 = fmul float %tmp496, %tmp360
+  %tmp500 = fmul float 2.000000e+00, %tmp497
+  %tmp501 = fmul float 2.000000e+00, %tmp498
+  %tmp502 = fmul float 2.000000e+00, %tmp499
+  %tmp503 = fsub float -0.000000e+00, %tmp500
+  %tmp504 = fadd float %tmp486, %tmp503
+  %tmp505 = fsub float -0.000000e+00, %tmp501
+  %tmp506 = fadd float %tmp487, %tmp505
+  %tmp507 = fsub float -0.000000e+00, %tmp502
+  %tmp508 = fadd float %tmp488, %tmp507
+  %tmp509 = fmul float %tmp94, %tmp94
+  %tmp510 = fmul float %tmp95, %tmp95
+  %tmp511 = fadd float %tmp510, %tmp509
+  %tmp512 = fmul float %tmp96, %tmp96
+  %tmp513 = fadd float %tmp511, %tmp512
+  %tmp514 = call float @llvm.amdgcn.rsq.f32(float %tmp513)
+  %tmp515 = fmul float %tmp94, %tmp514
+  %tmp516 = fmul float %tmp95, %tmp514
+  %tmp517 = fmul float %tmp96, %tmp514
+  %tmp518 = fmul float %tmp504, %tmp515
+  %tmp519 = fmul float %tmp506, %tmp516
+  %tmp520 = fadd float %tmp519, %tmp518
+  %tmp521 = fmul float %tmp508, %tmp517
+  %tmp522 = fadd float %tmp520, %tmp521
+  %tmp523 = fsub float -0.000000e+00, %tmp522
+  %tmp524 = fcmp uge float %tmp523, 0.000000e+00
+  %tmp525 = select i1 %tmp524, float %tmp523, float 0.000000e+00
+  %tmp526 = fmul float %tmp42, %tmp379
+  %tmp527 = fadd float %tmp526, 1.000000e+00
+  %tmp528 = call float @llvm.pow.f32(float %tmp525, float %tmp527)
+  %tmp529 = fmul float %tmp475, %tmp36
+  %tmp530 = fmul float %tmp477, %tmp37
+  %tmp531 = fmul float %tmp479, %tmp38
+  %tmp532 = fmul float %tmp358, %tmp486
+  %tmp533 = fmul float %tmp359, %tmp487
+  %tmp534 = fadd float %tmp533, %tmp532
+  %tmp535 = fmul float %tmp360, %tmp488
+  %tmp536 = fadd float %tmp534, %tmp535
+  %tmp537 = fcmp uge float %tmp536, 0.000000e+00
+  %tmp538 = select i1 %tmp537, float %tmp536, float 0.000000e+00
+  %tmp539 = fmul float %tmp529, %tmp538
+  %tmp540 = fmul float %tmp530, %tmp538
+  %tmp541 = fmul float %tmp531, %tmp538
+  %tmp542 = fmul float %tmp489, %tmp528
+  %tmp543 = fadd float %tmp542, %tmp539
+  %tmp544 = fmul float %tmp490, %tmp528
+  %tmp545 = fadd float %tmp544, %tmp540
+  %tmp546 = fmul float %tmp491, %tmp528
+  %tmp547 = fadd float %tmp546, %tmp541
+  %tmp548 = fmul float %tmp475, %tmp33
+  %tmp549 = fmul float %tmp477, %tmp34
+  %tmp550 = fmul float %tmp479, %tmp35
+  %tmp551 = fmul float %tmp543, %tmp56
+  %tmp552 = fadd float %tmp551, %tmp548
+  %tmp553 = fmul float %tmp545, %tmp57
+  %tmp554 = fadd float %tmp553, %tmp549
+  %tmp555 = fmul float %tmp547, %tmp58
+  %tmp556 = fadd float %tmp555, %tmp550
+  %tmp557 = bitcast float %tmp135 to i32
+  %tmp558 = bitcast float %tmp181 to i32
+  %tmp559 = bitcast float %tmp136 to i32
+  %tmp560 = bitcast float %tmp182 to i32
+  %tmp561 = bitcast float %temp28.1 to i32
+  %tmp562 = bitcast float %temp29.1 to i32
+  %tmp563 = insertelement <8 x i32> undef, i32 %tmp557, i32 0
+  %tmp564 = insertelement <8 x i32> %tmp563, i32 %tmp558, i32 1
+  %tmp565 = insertelement <8 x i32> %tmp564, i32 %tmp559, i32 2
+  %tmp566 = insertelement <8 x i32> %tmp565, i32 %tmp560, i32 3
+  %tmp567 = insertelement <8 x i32> %tmp566, i32 %tmp561, i32 4
+  %tmp568 = insertelement <8 x i32> %tmp567, i32 %tmp562, i32 5
+  %tmp569 = insertelement <8 x i32> %tmp568, i32 undef, i32 6
+  %tmp570 = insertelement <8 x i32> %tmp569, i32 undef, i32 7
+  %tmp571 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp570, <32 x i8> %tmp73, <16 x i8> %tmp75, i32 2)
+  %tmp572 = extractelement <4 x float> %tmp571, i32 0
+  %tmp573 = extractelement <4 x float> %tmp571, i32 1
+  %tmp574 = extractelement <4 x float> %tmp571, i32 2
+  %tmp575 = fmul float %tmp572, %tmp43
+  %tmp576 = fadd float %tmp575, %tmp552
+  %tmp577 = fmul float %tmp573, %tmp44
+  %tmp578 = fadd float %tmp577, %tmp554
+  %tmp579 = fmul float %tmp574, %tmp45
+  %tmp580 = fadd float %tmp579, %tmp556
+  %tmp581 = call i32 @llvm.SI.packf16(float %tmp576, float %tmp578)
+  %tmp582 = bitcast i32 %tmp581 to float
+  %tmp583 = call i32 @llvm.SI.packf16(float %tmp580, float %tmp282)
+  %tmp584 = bitcast i32 %tmp583 to float
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp582, float %tmp584, float %tmp582, float %tmp584)
   ret void
 
 ENDIF66:                                          ; preds = %LOOP65
-  %586 = bitcast float %temp28.1 to i32
-  %587 = bitcast float %temp29.1 to i32
-  %588 = insertelement <8 x i32> %237, i32 %586, i32 4
-  %589 = insertelement <8 x i32> %588, i32 %587, i32 5
-  %590 = insertelement <8 x i32> %589, i32 undef, i32 6
-  %591 = insertelement <8 x i32> %590, i32 undef, i32 7
-  %592 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %591, <32 x i8> %62, <16 x i8> %64, i32 2)
-  %593 = extractelement <4 x float> %592, i32 3
-  %594 = fcmp oge float %temp30.1, %593
-  %595 = sext i1 %594 to i32
-  %596 = bitcast i32 %595 to float
-  %597 = bitcast float %596 to i32
-  %598 = and i32 %597, 1065353216
-  %599 = bitcast i32 %598 to float
-  %600 = fmul float 5.000000e-01, %temp32.0
-  %601 = fsub float -0.000000e+00, %600
-  %602 = fmul float %599, %temp32.0
-  %603 = fadd float %602, %601
-  %604 = fmul float %214, %603
-  %605 = fadd float %604, %temp28.1
-  %606 = fmul float %215, %603
-  %607 = fadd float %606, %temp29.1
-  %608 = fmul float %216, %603
-  %609 = fadd float %608, %temp30.1
-  %610 = fadd float %temp24.1, 1.000000e+00
-  %611 = fmul float %temp32.0, 5.000000e-01
+  %tmp585 = bitcast float %temp28.1 to i32
+  %tmp586 = bitcast float %temp29.1 to i32
+  %tmp587 = insertelement <8 x i32> %tmp236, i32 %tmp585, i32 4
+  %tmp588 = insertelement <8 x i32> %tmp587, i32 %tmp586, i32 5
+  %tmp589 = insertelement <8 x i32> %tmp588, i32 undef, i32 6
+  %tmp590 = insertelement <8 x i32> %tmp589, i32 undef, i32 7
+  %tmp591 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp590, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2)
+  %tmp592 = extractelement <4 x float> %tmp591, i32 3
+  %tmp593 = fcmp oge float %temp30.1, %tmp592
+  %tmp594 = sext i1 %tmp593 to i32
+  %tmp595 = bitcast i32 %tmp594 to float
+  %tmp596 = bitcast float %tmp595 to i32
+  %tmp597 = and i32 %tmp596, 1065353216
+  %tmp598 = bitcast i32 %tmp597 to float
+  %tmp599 = fmul float 5.000000e-01, %temp32.0
+  %tmp600 = fsub float -0.000000e+00, %tmp599
+  %tmp601 = fmul float %tmp598, %temp32.0
+  %tmp602 = fadd float %tmp601, %tmp600
+  %tmp603 = fmul float %tmp213, %tmp602
+  %tmp604 = fadd float %tmp603, %temp28.1
+  %tmp605 = fmul float %tmp214, %tmp602
+  %tmp606 = fadd float %tmp605, %temp29.1
+  %tmp607 = fmul float %tmp215, %tmp602
+  %tmp608 = fadd float %tmp607, %temp30.1
+  %tmp609 = fadd float %temp24.1, 1.000000e+00
+  %tmp610 = fmul float %temp32.0, 5.000000e-01
   br label %LOOP65
 }
 
 ; CHECK-LABEL: {{^}}main1:
 ; CHECK: s_endpgm
-define void @main1([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #1 {
+define void @main1([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
 main_body:
-  %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0
-  %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !0
-  %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 0)
-  %24 = call float @llvm.SI.load.const(<16 x i8> %22, i32 4)
-  %25 = call float @llvm.SI.load.const(<16 x i8> %22, i32 8)
-  %26 = call float @llvm.SI.load.const(<16 x i8> %22, i32 12)
-  %27 = call float @llvm.SI.load.const(<16 x i8> %22, i32 28)
-  %28 = call float @llvm.SI.load.const(<16 x i8> %22, i32 48)
-  %29 = call float @llvm.SI.load.const(<16 x i8> %22, i32 52)
-  %30 = call float @llvm.SI.load.const(<16 x i8> %22, i32 56)
-  %31 = call float @llvm.SI.load.const(<16 x i8> %22, i32 64)
-  %32 = call float @llvm.SI.load.const(<16 x i8> %22, i32 68)
-  %33 = call float @llvm.SI.load.const(<16 x i8> %22, i32 72)
-  %34 = call float @llvm.SI.load.const(<16 x i8> %22, i32 76)
-  %35 = call float @llvm.SI.load.const(<16 x i8> %22, i32 128)
-  %36 = call float @llvm.SI.load.const(<16 x i8> %22, i32 132)
-  %37 = call float @llvm.SI.load.const(<16 x i8> %22, i32 144)
-  %38 = call float @llvm.SI.load.const(<16 x i8> %22, i32 148)
-  %39 = call float @llvm.SI.load.const(<16 x i8> %22, i32 152)
-  %40 = call float @llvm.SI.load.const(<16 x i8> %22, i32 160)
-  %41 = call float @llvm.SI.load.const(<16 x i8> %22, i32 164)
-  %42 = call float @llvm.SI.load.const(<16 x i8> %22, i32 168)
-  %43 = call float @llvm.SI.load.const(<16 x i8> %22, i32 172)
-  %44 = call float @llvm.SI.load.const(<16 x i8> %22, i32 176)
-  %45 = call float @llvm.SI.load.const(<16 x i8> %22, i32 180)
-  %46 = call float @llvm.SI.load.const(<16 x i8> %22, i32 184)
-  %47 = call float @llvm.SI.load.const(<16 x i8> %22, i32 192)
-  %48 = call float @llvm.SI.load.const(<16 x i8> %22, i32 196)
-  %49 = call float @llvm.SI.load.const(<16 x i8> %22, i32 200)
-  %50 = call float @llvm.SI.load.const(<16 x i8> %22, i32 208)
-  %51 = call float @llvm.SI.load.const(<16 x i8> %22, i32 212)
-  %52 = call float @llvm.SI.load.const(<16 x i8> %22, i32 216)
-  %53 = call float @llvm.SI.load.const(<16 x i8> %22, i32 220)
-  %54 = call float @llvm.SI.load.const(<16 x i8> %22, i32 236)
-  %55 = call float @llvm.SI.load.const(<16 x i8> %22, i32 240)
-  %56 = call float @llvm.SI.load.const(<16 x i8> %22, i32 244)
-  %57 = call float @llvm.SI.load.const(<16 x i8> %22, i32 248)
-  %58 = call float @llvm.SI.load.const(<16 x i8> %22, i32 252)
-  %59 = call float @llvm.SI.load.const(<16 x i8> %22, i32 256)
-  %60 = call float @llvm.SI.load.const(<16 x i8> %22, i32 260)
-  %61 = call float @llvm.SI.load.const(<16 x i8> %22, i32 264)
-  %62 = call float @llvm.SI.load.const(<16 x i8> %22, i32 268)
-  %63 = call float @llvm.SI.load.const(<16 x i8> %22, i32 272)
-  %64 = call float @llvm.SI.load.const(<16 x i8> %22, i32 276)
-  %65 = call float @llvm.SI.load.const(<16 x i8> %22, i32 280)
-  %66 = call float @llvm.SI.load.const(<16 x i8> %22, i32 284)
-  %67 = call float @llvm.SI.load.const(<16 x i8> %22, i32 288)
-  %68 = call float @llvm.SI.load.const(<16 x i8> %22, i32 292)
-  %69 = call float @llvm.SI.load.const(<16 x i8> %22, i32 464)
-  %70 = call float @llvm.SI.load.const(<16 x i8> %22, i32 468)
-  %71 = call float @llvm.SI.load.const(<16 x i8> %22, i32 472)
-  %72 = call float @llvm.SI.load.const(<16 x i8> %22, i32 496)
-  %73 = call float @llvm.SI.load.const(<16 x i8> %22, i32 500)
-  %74 = call float @llvm.SI.load.const(<16 x i8> %22, i32 504)
-  %75 = call float @llvm.SI.load.const(<16 x i8> %22, i32 512)
-  %76 = call float @llvm.SI.load.const(<16 x i8> %22, i32 516)
-  %77 = call float @llvm.SI.load.const(<16 x i8> %22, i32 524)
-  %78 = call float @llvm.SI.load.const(<16 x i8> %22, i32 532)
-  %79 = call float @llvm.SI.load.const(<16 x i8> %22, i32 536)
-  %80 = call float @llvm.SI.load.const(<16 x i8> %22, i32 540)
-  %81 = call float @llvm.SI.load.const(<16 x i8> %22, i32 544)
-  %82 = call float @llvm.SI.load.const(<16 x i8> %22, i32 548)
-  %83 = call float @llvm.SI.load.const(<16 x i8> %22, i32 552)
-  %84 = call float @llvm.SI.load.const(<16 x i8> %22, i32 556)
-  %85 = call float @llvm.SI.load.const(<16 x i8> %22, i32 560)
-  %86 = call float @llvm.SI.load.const(<16 x i8> %22, i32 564)
-  %87 = call float @llvm.SI.load.const(<16 x i8> %22, i32 568)
-  %88 = call float @llvm.SI.load.const(<16 x i8> %22, i32 572)
-  %89 = call float @llvm.SI.load.const(<16 x i8> %22, i32 576)
-  %90 = call float @llvm.SI.load.const(<16 x i8> %22, i32 580)
-  %91 = call float @llvm.SI.load.const(<16 x i8> %22, i32 584)
-  %92 = call float @llvm.SI.load.const(<16 x i8> %22, i32 588)
-  %93 = call float @llvm.SI.load.const(<16 x i8> %22, i32 592)
-  %94 = call float @llvm.SI.load.const(<16 x i8> %22, i32 596)
-  %95 = call float @llvm.SI.load.const(<16 x i8> %22, i32 600)
-  %96 = call float @llvm.SI.load.const(<16 x i8> %22, i32 604)
-  %97 = call float @llvm.SI.load.const(<16 x i8> %22, i32 608)
-  %98 = call float @llvm.SI.load.const(<16 x i8> %22, i32 612)
-  %99 = call float @llvm.SI.load.const(<16 x i8> %22, i32 616)
-  %100 = call float @llvm.SI.load.const(<16 x i8> %22, i32 624)
-  %101 = call float @llvm.SI.load.const(<16 x i8> %22, i32 628)
-  %102 = call float @llvm.SI.load.const(<16 x i8> %22, i32 632)
-  %103 = call float @llvm.SI.load.const(<16 x i8> %22, i32 636)
-  %104 = call float @llvm.SI.load.const(<16 x i8> %22, i32 640)
-  %105 = call float @llvm.SI.load.const(<16 x i8> %22, i32 644)
-  %106 = call float @llvm.SI.load.const(<16 x i8> %22, i32 648)
-  %107 = call float @llvm.SI.load.const(<16 x i8> %22, i32 652)
-  %108 = call float @llvm.SI.load.const(<16 x i8> %22, i32 656)
-  %109 = call float @llvm.SI.load.const(<16 x i8> %22, i32 660)
-  %110 = call float @llvm.SI.load.const(<16 x i8> %22, i32 664)
-  %111 = call float @llvm.SI.load.const(<16 x i8> %22, i32 668)
-  %112 = call float @llvm.SI.load.const(<16 x i8> %22, i32 672)
-  %113 = call float @llvm.SI.load.const(<16 x i8> %22, i32 676)
-  %114 = call float @llvm.SI.load.const(<16 x i8> %22, i32 680)
-  %115 = call float @llvm.SI.load.const(<16 x i8> %22, i32 684)
-  %116 = call float @llvm.SI.load.const(<16 x i8> %22, i32 688)
-  %117 = call float @llvm.SI.load.const(<16 x i8> %22, i32 692)
-  %118 = call float @llvm.SI.load.const(<16 x i8> %22, i32 696)
-  %119 = call float @llvm.SI.load.const(<16 x i8> %22, i32 700)
-  %120 = call float @llvm.SI.load.const(<16 x i8> %22, i32 704)
-  %121 = call float @llvm.SI.load.const(<16 x i8> %22, i32 708)
-  %122 = call float @llvm.SI.load.const(<16 x i8> %22, i32 712)
-  %123 = call float @llvm.SI.load.const(<16 x i8> %22, i32 716)
-  %124 = call float @llvm.SI.load.const(<16 x i8> %22, i32 864)
-  %125 = call float @llvm.SI.load.const(<16 x i8> %22, i32 868)
-  %126 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0
-  %127 = load <32 x i8>, <32 x i8> addrspace(2)* %126, !tbaa !0
-  %128 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0
-  %129 = load <16 x i8>, <16 x i8> addrspace(2)* %128, !tbaa !0
-  %130 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 1
-  %131 = load <32 x i8>, <32 x i8> addrspace(2)* %130, !tbaa !0
-  %132 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 1
-  %133 = load <16 x i8>, <16 x i8> addrspace(2)* %132, !tbaa !0
-  %134 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 2
-  %135 = load <32 x i8>, <32 x i8> addrspace(2)* %134, !tbaa !0
-  %136 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 2
-  %137 = load <16 x i8>, <16 x i8> addrspace(2)* %136, !tbaa !0
-  %138 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 3
-  %139 = load <32 x i8>, <32 x i8> addrspace(2)* %138, !tbaa !0
-  %140 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 3
-  %141 = load <16 x i8>, <16 x i8> addrspace(2)* %140, !tbaa !0
-  %142 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 4
-  %143 = load <32 x i8>, <32 x i8> addrspace(2)* %142, !tbaa !0
-  %144 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 4
-  %145 = load <16 x i8>, <16 x i8> addrspace(2)* %144, !tbaa !0
-  %146 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 5
-  %147 = load <32 x i8>, <32 x i8> addrspace(2)* %146, !tbaa !0
-  %148 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 5
-  %149 = load <16 x i8>, <16 x i8> addrspace(2)* %148, !tbaa !0
-  %150 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 6
-  %151 = load <32 x i8>, <32 x i8> addrspace(2)* %150, !tbaa !0
-  %152 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 6
-  %153 = load <16 x i8>, <16 x i8> addrspace(2)* %152, !tbaa !0
-  %154 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 7
-  %155 = load <32 x i8>, <32 x i8> addrspace(2)* %154, !tbaa !0
-  %156 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 7
-  %157 = load <16 x i8>, <16 x i8> addrspace(2)* %156, !tbaa !0
-  %158 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 8
-  %159 = load <32 x i8>, <32 x i8> addrspace(2)* %158, !tbaa !0
-  %160 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 8
-  %161 = load <16 x i8>, <16 x i8> addrspace(2)* %160, !tbaa !0
-  %162 = fcmp ugt float %17, 0.000000e+00
-  %163 = select i1 %162, float 1.000000e+00, float 0.000000e+00
-  %164 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %4, <2 x i32> %6)
-  %165 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %4, <2 x i32> %6)
-  %166 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %4, <2 x i32> %6)
-  %167 = call float @llvm.SI.fs.interp(i32 3, i32 0, i32 %4, <2 x i32> %6)
-  %168 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %4, <2 x i32> %6)
-  %169 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %4, <2 x i32> %6)
-  %170 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %4, <2 x i32> %6)
-  %171 = call float @llvm.SI.fs.interp(i32 3, i32 1, i32 %4, <2 x i32> %6)
-  %172 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %4, <2 x i32> %6)
-  %173 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %4, <2 x i32> %6)
-  %174 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %4, <2 x i32> %6)
-  %175 = call float @llvm.SI.fs.interp(i32 3, i32 2, i32 %4, <2 x i32> %6)
-  %176 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %4, <2 x i32> %6)
-  %177 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %4, <2 x i32> %6)
-  %178 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %4, <2 x i32> %6)
-  %179 = call float @llvm.SI.fs.interp(i32 3, i32 3, i32 %4, <2 x i32> %6)
-  %180 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %4, <2 x i32> %6)
-  %181 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %4, <2 x i32> %6)
-  %182 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %4, <2 x i32> %6)
-  %183 = call float @llvm.SI.fs.interp(i32 3, i32 4, i32 %4, <2 x i32> %6)
-  %184 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %4, <2 x i32> %6)
-  %185 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %4, <2 x i32> %6)
-  %186 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %4, <2 x i32> %6)
-  %187 = call float @llvm.SI.fs.interp(i32 3, i32 5, i32 %4, <2 x i32> %6)
-  %188 = call float @llvm.SI.fs.interp(i32 0, i32 6, i32 %4, <2 x i32> %6)
-  %189 = call float @llvm.SI.fs.interp(i32 1, i32 6, i32 %4, <2 x i32> %6)
-  %190 = call float @llvm.SI.fs.interp(i32 2, i32 6, i32 %4, <2 x i32> %6)
-  %191 = call float @llvm.SI.fs.interp(i32 3, i32 6, i32 %4, <2 x i32> %6)
-  %192 = call float @llvm.SI.fs.interp(i32 0, i32 7, i32 %4, <2 x i32> %6)
-  %193 = call float @llvm.SI.fs.interp(i32 1, i32 7, i32 %4, <2 x i32> %6)
-  %194 = call float @llvm.SI.fs.interp(i32 2, i32 7, i32 %4, <2 x i32> %6)
-  %195 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %4, <2 x i32> %6)
-  %196 = fmul float %14, %124
-  %197 = fadd float %196, %125
-  %198 = call float @llvm.AMDIL.clamp.(float %163, float 0.000000e+00, float 1.000000e+00)
-  %199 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
-  %200 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
-  %201 = call float @llvm.AMDIL.clamp.(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00)
-  %202 = bitcast float %198 to i32
-  %203 = icmp ne i32 %202, 0
-  %. = select i1 %203, float -1.000000e+00, float 1.000000e+00
-  %204 = fsub float -0.000000e+00, %164
-  %205 = fadd float %44, %204
-  %206 = fsub float -0.000000e+00, %165
-  %207 = fadd float %45, %206
-  %208 = fsub float -0.000000e+00, %166
-  %209 = fadd float %46, %208
-  %210 = fmul float %205, %205
-  %211 = fmul float %207, %207
-  %212 = fadd float %211, %210
-  %213 = fmul float %209, %209
-  %214 = fadd float %212, %213
-  %215 = call float @llvm.amdgcn.rsq.f32(float %214)
-  %216 = fmul float %205, %215
-  %217 = fmul float %207, %215
-  %218 = fmul float %209, %215
-  %219 = fmul float %., %54
-  %220 = fmul float %13, %47
-  %221 = fmul float %197, %48
-  %222 = bitcast float %174 to i32
-  %223 = bitcast float %175 to i32
-  %224 = insertelement <2 x i32> undef, i32 %222, i32 0
-  %225 = insertelement <2 x i32> %224, i32 %223, i32 1
-  %226 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %225, <32 x i8> %131, <16 x i8> %133, i32 2)
-  %227 = extractelement <4 x float> %226, i32 0
-  %228 = extractelement <4 x float> %226, i32 1
-  %229 = extractelement <4 x float> %226, i32 2
-  %230 = extractelement <4 x float> %226, i32 3
-  %231 = fmul float %227, 0x4012611180000000
-  %232 = fmul float %228, 0x4012611180000000
-  %233 = fmul float %229, 0x4012611180000000
-  %one.sub.a.i = fsub float 1.000000e+00, %27
-  %result.i = fadd float %231, %one.sub.a.i
-  %one.sub.a.i43 = fsub float 1.000000e+00, %27
-  %result.i44 = fadd float %232, %one.sub.a.i43
-  %one.sub.a.i41 = fsub float 1.000000e+00, %27
-  %result.i42 = fadd float %233, %one.sub.a.i41
-  %234 = fmul float %216, %184
-  %235 = fmul float %217, %185
-  %236 = fadd float %235, %234
-  %237 = fmul float %218, %186
-  %238 = fadd float %236, %237
-  %239 = fmul float %216, %187
-  %240 = fmul float %217, %188
-  %241 = fadd float %240, %239
-  %242 = fmul float %218, %189
-  %243 = fadd float %241, %242
-  %244 = fmul float %216, %190
-  %245 = fmul float %217, %191
-  %246 = fadd float %245, %244
-  %247 = fmul float %218, %192
-  %248 = fadd float %246, %247
-  %249 = call float @llvm.AMDIL.clamp.(float %248, float 0.000000e+00, float 1.000000e+00)
-  %250 = fmul float %214, 0x3F5A36E2E0000000
-  %251 = call float @llvm.AMDIL.clamp.(float %250, float 0.000000e+00, float 1.000000e+00)
-  %252 = fsub float -0.000000e+00, %251
-  %253 = fadd float 1.000000e+00, %252
-  %254 = call float @llvm.pow.f32(float %249, float 2.500000e-01)
-  %255 = fmul float %39, %254
-  %256 = fmul float %238, %255
-  %257 = fmul float %243, %255
-  %258 = fmul float %256, %230
-  %259 = fmul float %257, %230
-  %260 = fadd float %249, 0x3EE4F8B580000000
-  %261 = fsub float -0.000000e+00, %249
-  %262 = fadd float 1.000000e+00, %261
-  %263 = fmul float 1.200000e+01, %262
-  %264 = fadd float %263, 4.000000e+00
-  %265 = fsub float -0.000000e+00, %264
-  %266 = fmul float %265, %260
-  %267 = fsub float -0.000000e+00, %264
-  %268 = fmul float %267, %260
-  %269 = fsub float -0.000000e+00, %264
-  %270 = fmul float %269, %260
-  %271 = fdiv float 1.000000e+00, %266
-  %272 = fdiv float 1.000000e+00, %268
-  %273 = fdiv float 1.000000e+00, %270
-  %274 = fmul float %258, %271
-  %275 = fmul float %259, %272
-  %276 = fmul float %260, %273
+  %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0
+  %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 0)
+  %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 4)
+  %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 8)
+  %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 12)
+  %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 28)
+  %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 48)
+  %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 52)
+  %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 56)
+  %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 64)
+  %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 68)
+  %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 72)
+  %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 76)
+  %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 128)
+  %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 132)
+  %tmp36 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 144)
+  %tmp37 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 148)
+  %tmp38 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 152)
+  %tmp39 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 160)
+  %tmp40 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 164)
+  %tmp41 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 168)
+  %tmp42 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 172)
+  %tmp43 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 176)
+  %tmp44 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 180)
+  %tmp45 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 184)
+  %tmp46 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 192)
+  %tmp47 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 196)
+  %tmp48 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 200)
+  %tmp49 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 208)
+  %tmp50 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 212)
+  %tmp51 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 216)
+  %tmp52 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 220)
+  %tmp53 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 236)
+  %tmp54 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 240)
+  %tmp55 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 244)
+  %tmp56 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 248)
+  %tmp57 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 252)
+  %tmp58 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 256)
+  %tmp59 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 260)
+  %tmp60 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 264)
+  %tmp61 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 268)
+  %tmp62 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 272)
+  %tmp63 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 276)
+  %tmp64 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 280)
+  %tmp65 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 284)
+  %tmp66 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 288)
+  %tmp67 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 292)
+  %tmp68 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 464)
+  %tmp69 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 468)
+  %tmp70 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 472)
+  %tmp71 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 496)
+  %tmp72 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 500)
+  %tmp73 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 504)
+  %tmp74 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 512)
+  %tmp75 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 516)
+  %tmp76 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 524)
+  %tmp77 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 532)
+  %tmp78 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 536)
+  %tmp79 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 540)
+  %tmp80 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 544)
+  %tmp81 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 548)
+  %tmp82 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 552)
+  %tmp83 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 556)
+  %tmp84 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 560)
+  %tmp85 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 564)
+  %tmp86 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 568)
+  %tmp87 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 572)
+  %tmp88 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 576)
+  %tmp89 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 580)
+  %tmp90 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 584)
+  %tmp91 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 588)
+  %tmp92 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 592)
+  %tmp93 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 596)
+  %tmp94 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 600)
+  %tmp95 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 604)
+  %tmp96 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 608)
+  %tmp97 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 612)
+  %tmp98 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 616)
+  %tmp99 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 624)
+  %tmp100 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 628)
+  %tmp101 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 632)
+  %tmp102 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 636)
+  %tmp103 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 640)
+  %tmp104 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 644)
+  %tmp105 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 648)
+  %tmp106 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 652)
+  %tmp107 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 656)
+  %tmp108 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 660)
+  %tmp109 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 664)
+  %tmp110 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 668)
+  %tmp111 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 672)
+  %tmp112 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 676)
+  %tmp113 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 680)
+  %tmp114 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 684)
+  %tmp115 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 688)
+  %tmp116 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 692)
+  %tmp117 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 696)
+  %tmp118 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 700)
+  %tmp119 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 704)
+  %tmp120 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 708)
+  %tmp121 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 712)
+  %tmp122 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 716)
+  %tmp123 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 864)
+  %tmp124 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 868)
+  %tmp125 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0
+  %tmp126 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp125, !tbaa !0
+  %tmp127 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0
+  %tmp128 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp127, !tbaa !0
+  %tmp129 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 1
+  %tmp130 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp129, !tbaa !0
+  %tmp131 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 1
+  %tmp132 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp131, !tbaa !0
+  %tmp133 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 2
+  %tmp134 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp133, !tbaa !0
+  %tmp135 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 2
+  %tmp136 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp135, !tbaa !0
+  %tmp137 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 3
+  %tmp138 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp137, !tbaa !0
+  %tmp139 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 3
+  %tmp140 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp139, !tbaa !0
+  %tmp141 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 4
+  %tmp142 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp141, !tbaa !0
+  %tmp143 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 4
+  %tmp144 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp143, !tbaa !0
+  %tmp145 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 5
+  %tmp146 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp145, !tbaa !0
+  %tmp147 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 5
+  %tmp148 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp147, !tbaa !0
+  %tmp149 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 6
+  %tmp150 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp149, !tbaa !0
+  %tmp151 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 6
+  %tmp152 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp151, !tbaa !0
+  %tmp153 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 7
+  %tmp154 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp153, !tbaa !0
+  %tmp155 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 7
+  %tmp156 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp155, !tbaa !0
+  %tmp157 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 8
+  %tmp158 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp157, !tbaa !0
+  %tmp159 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 8
+  %tmp160 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp159, !tbaa !0
+  %tmp161 = fcmp ugt float %arg17, 0.000000e+00
+  %tmp162 = select i1 %tmp161, float 1.000000e+00, float 0.000000e+00
+  %tmp163 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp164 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp165 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp166 = call float @llvm.SI.fs.interp(i32 3, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp167 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp168 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp169 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp170 = call float @llvm.SI.fs.interp(i32 3, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp171 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp172 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp173 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp174 = call float @llvm.SI.fs.interp(i32 3, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp175 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp176 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp177 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp178 = call float @llvm.SI.fs.interp(i32 3, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp179 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp180 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp181 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp182 = call float @llvm.SI.fs.interp(i32 3, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp183 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp184 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp185 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp186 = call float @llvm.SI.fs.interp(i32 3, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp187 = call float @llvm.SI.fs.interp(i32 0, i32 6, i32 %arg4, <2 x i32> %arg6)
+  %tmp188 = call float @llvm.SI.fs.interp(i32 1, i32 6, i32 %arg4, <2 x i32> %arg6)
+  %tmp189 = call float @llvm.SI.fs.interp(i32 2, i32 6, i32 %arg4, <2 x i32> %arg6)
+  %tmp190 = call float @llvm.SI.fs.interp(i32 3, i32 6, i32 %arg4, <2 x i32> %arg6)
+  %tmp191 = call float @llvm.SI.fs.interp(i32 0, i32 7, i32 %arg4, <2 x i32> %arg6)
+  %tmp192 = call float @llvm.SI.fs.interp(i32 1, i32 7, i32 %arg4, <2 x i32> %arg6)
+  %tmp193 = call float @llvm.SI.fs.interp(i32 2, i32 7, i32 %arg4, <2 x i32> %arg6)
+  %tmp194 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %arg4, <2 x i32> %arg6)
+  %tmp195 = fmul float %arg14, %tmp123
+  %tmp196 = fadd float %tmp195, %tmp124
+  %tmp197 = call float @llvm.AMDIL.clamp.(float %tmp162, float 0.000000e+00, float 1.000000e+00)
+  %tmp198 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
+  %tmp199 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
+  %tmp200 = call float @llvm.AMDIL.clamp.(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00)
+  %tmp201 = bitcast float %tmp197 to i32
+  %tmp202 = icmp ne i32 %tmp201, 0
+  %. = select i1 %tmp202, float -1.000000e+00, float 1.000000e+00
+  %tmp203 = fsub float -0.000000e+00, %tmp163
+  %tmp204 = fadd float %tmp43, %tmp203
+  %tmp205 = fsub float -0.000000e+00, %tmp164
+  %tmp206 = fadd float %tmp44, %tmp205
+  %tmp207 = fsub float -0.000000e+00, %tmp165
+  %tmp208 = fadd float %tmp45, %tmp207
+  %tmp209 = fmul float %tmp204, %tmp204
+  %tmp210 = fmul float %tmp206, %tmp206
+  %tmp211 = fadd float %tmp210, %tmp209
+  %tmp212 = fmul float %tmp208, %tmp208
+  %tmp213 = fadd float %tmp211, %tmp212
+  %tmp214 = call float @llvm.amdgcn.rsq.f32(float %tmp213)
+  %tmp215 = fmul float %tmp204, %tmp214
+  %tmp216 = fmul float %tmp206, %tmp214
+  %tmp217 = fmul float %tmp208, %tmp214
+  %tmp218 = fmul float %., %tmp53
+  %tmp219 = fmul float %arg13, %tmp46
+  %tmp220 = fmul float %tmp196, %tmp47
+  %tmp221 = bitcast float %tmp173 to i32
+  %tmp222 = bitcast float %tmp174 to i32
+  %tmp223 = insertelement <2 x i32> undef, i32 %tmp221, i32 0
+  %tmp224 = insertelement <2 x i32> %tmp223, i32 %tmp222, i32 1
+  %tmp225 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp224, <32 x i8> %tmp130, <16 x i8> %tmp132, i32 2)
+  %tmp226 = extractelement <4 x float> %tmp225, i32 0
+  %tmp227 = extractelement <4 x float> %tmp225, i32 1
+  %tmp228 = extractelement <4 x float> %tmp225, i32 2
+  %tmp229 = extractelement <4 x float> %tmp225, i32 3
+  %tmp230 = fmul float %tmp226, 0x4012611180000000
+  %tmp231 = fmul float %tmp227, 0x4012611180000000
+  %tmp232 = fmul float %tmp228, 0x4012611180000000
+  %one.sub.a.i = fsub float 1.000000e+00, %tmp26
+  %result.i = fadd float %tmp230, %one.sub.a.i
+  %one.sub.a.i43 = fsub float 1.000000e+00, %tmp26
+  %result.i44 = fadd float %tmp231, %one.sub.a.i43
+  %one.sub.a.i41 = fsub float 1.000000e+00, %tmp26
+  %result.i42 = fadd float %tmp232, %one.sub.a.i41
+  %tmp233 = fmul float %tmp215, %tmp183
+  %tmp234 = fmul float %tmp216, %tmp184
+  %tmp235 = fadd float %tmp234, %tmp233
+  %tmp236 = fmul float %tmp217, %tmp185
+  %tmp237 = fadd float %tmp235, %tmp236
+  %tmp238 = fmul float %tmp215, %tmp186
+  %tmp239 = fmul float %tmp216, %tmp187
+  %tmp240 = fadd float %tmp239, %tmp238
+  %tmp241 = fmul float %tmp217, %tmp188
+  %tmp242 = fadd float %tmp240, %tmp241
+  %tmp243 = fmul float %tmp215, %tmp189
+  %tmp244 = fmul float %tmp216, %tmp190
+  %tmp245 = fadd float %tmp244, %tmp243
+  %tmp246 = fmul float %tmp217, %tmp191
+  %tmp247 = fadd float %tmp245, %tmp246
+  %tmp248 = call float @llvm.AMDIL.clamp.(float %tmp247, float 0.000000e+00, float 1.000000e+00)
+  %tmp249 = fmul float %tmp213, 0x3F5A36E2E0000000
+  %tmp250 = call float @llvm.AMDIL.clamp.(float %tmp249, float 0.000000e+00, float 1.000000e+00)
+  %tmp251 = fsub float -0.000000e+00, %tmp250
+  %tmp252 = fadd float 1.000000e+00, %tmp251
+  %tmp253 = call float @llvm.pow.f32(float %tmp248, float 2.500000e-01)
+  %tmp254 = fmul float %tmp38, %tmp253
+  %tmp255 = fmul float %tmp237, %tmp254
+  %tmp256 = fmul float %tmp242, %tmp254
+  %tmp257 = fmul float %tmp255, %tmp229
+  %tmp258 = fmul float %tmp256, %tmp229
+  %tmp259 = fadd float %tmp248, 0x3EE4F8B580000000
+  %tmp260 = fsub float -0.000000e+00, %tmp248
+  %tmp261 = fadd float 1.000000e+00, %tmp260
+  %tmp262 = fmul float 1.200000e+01, %tmp261
+  %tmp263 = fadd float %tmp262, 4.000000e+00
+  %tmp264 = fsub float -0.000000e+00, %tmp263
+  %tmp265 = fmul float %tmp264, %tmp259
+  %tmp266 = fsub float -0.000000e+00, %tmp263
+  %tmp267 = fmul float %tmp266, %tmp259
+  %tmp268 = fsub float -0.000000e+00, %tmp263
+  %tmp269 = fmul float %tmp268, %tmp259
+  %tmp270 = fdiv float 1.000000e+00, %tmp265
+  %tmp271 = fdiv float 1.000000e+00, %tmp267
+  %tmp272 = fdiv float 1.000000e+00, %tmp269
+  %tmp273 = fmul float %tmp257, %tmp270
+  %tmp274 = fmul float %tmp258, %tmp271
+  %tmp275 = fmul float %tmp259, %tmp272
   br label %LOOP
 
 LOOP:                                             ; preds = %LOOP, %main_body
-  %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %289, %LOOP ]
-  %temp168.0 = phi float [ %176, %main_body ], [ %285, %LOOP ]
-  %temp169.0 = phi float [ %177, %main_body ], [ %286, %LOOP ]
-  %temp170.0 = phi float [ %253, %main_body ], [ %287, %LOOP ]
-  %277 = bitcast float %temp168.0 to i32
-  %278 = bitcast float %temp169.0 to i32
-  %279 = insertelement <4 x i32> undef, i32 %277, i32 0
-  %280 = insertelement <4 x i32> %279, i32 %278, i32 1
-  %281 = insertelement <4 x i32> %280, i32 0, i32 2
-  %282 = insertelement <4 x i32> %281, i32 undef, i32 3
-  %283 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %282, <32 x i8> %147, <16 x i8> %149, i32 2)
-  %284 = extractelement <4 x float> %283, i32 3
-  %285 = fadd float %temp168.0, %274
-  %286 = fadd float %temp169.0, %275
-  %287 = fadd float %temp170.0, %276
-  %288 = fsub float -0.000000e+00, %284
-  %289 = fadd float %287, %288
-  %290 = fcmp oge float 0.000000e+00, %289
-  %291 = sext i1 %290 to i32
-  %292 = bitcast i32 %291 to float
-  %293 = bitcast float %292 to i32
-  %294 = icmp ne i32 %293, 0
-  br i1 %294, label %IF189, label %LOOP
+  %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp288, %LOOP ]
+  %temp168.0 = phi float [ %tmp175, %main_body ], [ %tmp284, %LOOP ]
+  %temp169.0 = phi float [ %tmp176, %main_body ], [ %tmp285, %LOOP ]
+  %temp170.0 = phi float [ %tmp252, %main_body ], [ %tmp286, %LOOP ]
+  %tmp276 = bitcast float %temp168.0 to i32
+  %tmp277 = bitcast float %temp169.0 to i32
+  %tmp278 = insertelement <4 x i32> undef, i32 %tmp276, i32 0
+  %tmp279 = insertelement <4 x i32> %tmp278, i32 %tmp277, i32 1
+  %tmp280 = insertelement <4 x i32> %tmp279, i32 0, i32 2
+  %tmp281 = insertelement <4 x i32> %tmp280, i32 undef, i32 3
+  %tmp282 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp281, <32 x i8> %tmp146, <16 x i8> %tmp148, i32 2)
+  %tmp283 = extractelement <4 x float> %tmp282, i32 3
+  %tmp284 = fadd float %temp168.0, %tmp273
+  %tmp285 = fadd float %temp169.0, %tmp274
+  %tmp286 = fadd float %temp170.0, %tmp275
+  %tmp287 = fsub float -0.000000e+00, %tmp283
+  %tmp288 = fadd float %tmp286, %tmp287
+  %tmp289 = fcmp oge float 0.000000e+00, %tmp288
+  %tmp290 = sext i1 %tmp289 to i32
+  %tmp291 = bitcast i32 %tmp290 to float
+  %tmp292 = bitcast float %tmp291 to i32
+  %tmp293 = icmp ne i32 %tmp292, 0
+  br i1 %tmp293, label %IF189, label %LOOP
 
 IF189:                                            ; preds = %LOOP
-  %295 = extractelement <4 x float> %283, i32 0
-  %296 = extractelement <4 x float> %283, i32 1
-  %297 = extractelement <4 x float> %283, i32 2
-  %298 = fsub float -0.000000e+00, %289
-  %299 = fadd float %temp144.0, %298
-  %300 = fdiv float 1.000000e+00, %299
-  %301 = fmul float %289, %300
-  %302 = fadd float %301, -1.000000e+00
-  %303 = fmul float %302, %274
-  %304 = fadd float %303, %285
-  %305 = fmul float %302, %275
-  %306 = fadd float %305, %286
-  %307 = fsub float -0.000000e+00, %176
-  %308 = fadd float %304, %307
-  %309 = fsub float -0.000000e+00, %177
-  %310 = fadd float %306, %309
-  %311 = fadd float %176, %308
-  %312 = fadd float %177, %310
-  %313 = fmul float %308, %67
-  %314 = fmul float %310, %68
-  %315 = fmul float %313, %55
-  %316 = fmul float %313, %56
-  %317 = fmul float %314, %57
-  %318 = fadd float %317, %315
-  %319 = fmul float %314, %58
-  %320 = fadd float %319, %316
-  %321 = fadd float %178, %318
-  %322 = fadd float %179, %320
-  %323 = fmul float %313, %59
-  %324 = fmul float %313, %60
-  %325 = fmul float %313, %61
-  %326 = fmul float %313, %62
-  %327 = fmul float %314, %63
-  %328 = fadd float %327, %323
-  %329 = fmul float %314, %64
-  %330 = fadd float %329, %324
-  %331 = fmul float %314, %65
-  %332 = fadd float %331, %325
-  %333 = fmul float %314, %66
-  %334 = fadd float %333, %326
-  %335 = fadd float %168, %328
-  %336 = fadd float %169, %330
-  %337 = fadd float %170, %332
-  %338 = fadd float %171, %334
-  %339 = bitcast float %335 to i32
-  %340 = bitcast float %336 to i32
-  %341 = insertelement <2 x i32> undef, i32 %339, i32 0
-  %342 = insertelement <2 x i32> %341, i32 %340, i32 1
-  %343 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %342, <32 x i8> %135, <16 x i8> %137, i32 2)
-  %344 = extractelement <4 x float> %343, i32 0
-  %345 = extractelement <4 x float> %343, i32 1
-  %346 = extractelement <4 x float> %343, i32 2
-  %347 = extractelement <4 x float> %343, i32 3
-  %348 = fmul float %344, %23
-  %349 = fmul float %345, %24
-  %350 = fmul float %346, %25
-  %351 = fmul float %347, %26
-  %352 = fmul float %348, %180
-  %353 = fmul float %349, %181
-  %354 = fmul float %350, %182
-  %355 = fmul float %351, %183
-  %356 = fsub float -0.000000e+00, %347
-  %357 = fadd float 1.000000e+00, %356
-  %358 = fmul float %357, %49
-  %one.sub.a.i37 = fsub float 1.000000e+00, %358
-  %one.sub.ac.i38 = fmul float %one.sub.a.i37, %352
-  %mul.i39 = fmul float %344, %352
+  %tmp294 = extractelement <4 x float> %tmp282, i32 0
+  %tmp295 = extractelement <4 x float> %tmp282, i32 1
+  %tmp296 = extractelement <4 x float> %tmp282, i32 2
+  %tmp297 = fsub float -0.000000e+00, %tmp288
+  %tmp298 = fadd float %temp144.0, %tmp297
+  %tmp299 = fdiv float 1.000000e+00, %tmp298
+  %tmp300 = fmul float %tmp288, %tmp299
+  %tmp301 = fadd float %tmp300, -1.000000e+00
+  %tmp302 = fmul float %tmp301, %tmp273
+  %tmp303 = fadd float %tmp302, %tmp284
+  %tmp304 = fmul float %tmp301, %tmp274
+  %tmp305 = fadd float %tmp304, %tmp285
+  %tmp306 = fsub float -0.000000e+00, %tmp175
+  %tmp307 = fadd float %tmp303, %tmp306
+  %tmp308 = fsub float -0.000000e+00, %tmp176
+  %tmp309 = fadd float %tmp305, %tmp308
+  %tmp310 = fadd float %tmp175, %tmp307
+  %tmp311 = fadd float %tmp176, %tmp309
+  %tmp312 = fmul float %tmp307, %tmp66
+  %tmp313 = fmul float %tmp309, %tmp67
+  %tmp314 = fmul float %tmp312, %tmp54
+  %tmp315 = fmul float %tmp312, %tmp55
+  %tmp316 = fmul float %tmp313, %tmp56
+  %tmp317 = fadd float %tmp316, %tmp314
+  %tmp318 = fmul float %tmp313, %tmp57
+  %tmp319 = fadd float %tmp318, %tmp315
+  %tmp320 = fadd float %tmp177, %tmp317
+  %tmp321 = fadd float %tmp178, %tmp319
+  %tmp322 = fmul float %tmp312, %tmp58
+  %tmp323 = fmul float %tmp312, %tmp59
+  %tmp324 = fmul float %tmp312, %tmp60
+  %tmp325 = fmul float %tmp312, %tmp61
+  %tmp326 = fmul float %tmp313, %tmp62
+  %tmp327 = fadd float %tmp326, %tmp322
+  %tmp328 = fmul float %tmp313, %tmp63
+  %tmp329 = fadd float %tmp328, %tmp323
+  %tmp330 = fmul float %tmp313, %tmp64
+  %tmp331 = fadd float %tmp330, %tmp324
+  %tmp332 = fmul float %tmp313, %tmp65
+  %tmp333 = fadd float %tmp332, %tmp325
+  %tmp334 = fadd float %tmp167, %tmp327
+  %tmp335 = fadd float %tmp168, %tmp329
+  %tmp336 = fadd float %tmp169, %tmp331
+  %tmp337 = fadd float %tmp170, %tmp333
+  %tmp338 = bitcast float %tmp334 to i32
+  %tmp339 = bitcast float %tmp335 to i32
+  %tmp340 = insertelement <2 x i32> undef, i32 %tmp338, i32 0
+  %tmp341 = insertelement <2 x i32> %tmp340, i32 %tmp339, i32 1
+  %tmp342 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp341, <32 x i8> %tmp134, <16 x i8> %tmp136, i32 2)
+  %tmp343 = extractelement <4 x float> %tmp342, i32 0
+  %tmp344 = extractelement <4 x float> %tmp342, i32 1
+  %tmp345 = extractelement <4 x float> %tmp342, i32 2
+  %tmp346 = extractelement <4 x float> %tmp342, i32 3
+  %tmp347 = fmul float %tmp343, %tmp22
+  %tmp348 = fmul float %tmp344, %tmp23
+  %tmp349 = fmul float %tmp345, %tmp24
+  %tmp350 = fmul float %tmp346, %tmp25
+  %tmp351 = fmul float %tmp347, %tmp179
+  %tmp352 = fmul float %tmp348, %tmp180
+  %tmp353 = fmul float %tmp349, %tmp181
+  %tmp354 = fmul float %tmp350, %tmp182
+  %tmp355 = fsub float -0.000000e+00, %tmp346
+  %tmp356 = fadd float 1.000000e+00, %tmp355
+  %tmp357 = fmul float %tmp356, %tmp48
+  %one.sub.a.i37 = fsub float 1.000000e+00, %tmp357
+  %one.sub.ac.i38 = fmul float %one.sub.a.i37, %tmp351
+  %mul.i39 = fmul float %tmp343, %tmp351
   %result.i40 = fadd float %mul.i39, %one.sub.ac.i38
-  %one.sub.a.i33 = fsub float 1.000000e+00, %358
-  %one.sub.ac.i34 = fmul float %one.sub.a.i33, %353
-  %mul.i35 = fmul float %345, %353
+  %one.sub.a.i33 = fsub float 1.000000e+00, %tmp357
+  %one.sub.ac.i34 = fmul float %one.sub.a.i33, %tmp352
+  %mul.i35 = fmul float %tmp344, %tmp352
   %result.i36 = fadd float %mul.i35, %one.sub.ac.i34
-  %one.sub.a.i29 = fsub float 1.000000e+00, %358
-  %one.sub.ac.i30 = fmul float %one.sub.a.i29, %354
-  %mul.i31 = fmul float %346, %354
+  %one.sub.a.i29 = fsub float 1.000000e+00, %tmp357
+  %one.sub.ac.i30 = fmul float %one.sub.a.i29, %tmp353
+  %mul.i31 = fmul float %tmp345, %tmp353
   %result.i32 = fadd float %mul.i31, %one.sub.ac.i30
-  %359 = bitcast float %337 to i32
-  %360 = bitcast float %338 to i32
-  %361 = insertelement <2 x i32> undef, i32 %359, i32 0
-  %362 = insertelement <2 x i32> %361, i32 %360, i32 1
-  %363 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %362, <32 x i8> %151, <16 x i8> %153, i32 2)
-  %364 = extractelement <4 x float> %363, i32 2
-  %365 = fmul float %result.i40, %result.i
-  %366 = fmul float %result.i36, %result.i44
-  %367 = fmul float %result.i32, %result.i42
-  %368 = fmul float %355, %230
-  %369 = bitcast float %311 to i32
-  %370 = bitcast float %312 to i32
-  %371 = insertelement <2 x i32> undef, i32 %369, i32 0
-  %372 = insertelement <2 x i32> %371, i32 %370, i32 1
-  %373 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %372, <32 x i8> %139, <16 x i8> %141, i32 2)
-  %374 = extractelement <4 x float> %373, i32 0
-  %375 = extractelement <4 x float> %373, i32 1
-  %376 = extractelement <4 x float> %373, i32 2
-  %377 = extractelement <4 x float> %373, i32 3
-  %378 = fcmp olt float 0.000000e+00, %376
-  %379 = sext i1 %378 to i32
-  %380 = bitcast i32 %379 to float
-  %381 = bitcast float %380 to i32
-  %382 = icmp ne i32 %381, 0
-  %.224 = select i1 %382, float %375, float %374
-  %.225 = select i1 %382, float %377, float %375
-  %383 = bitcast float %321 to i32
-  %384 = bitcast float %322 to i32
-  %385 = insertelement <2 x i32> undef, i32 %383, i32 0
-  %386 = insertelement <2 x i32> %385, i32 %384, i32 1
-  %387 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %386, <32 x i8> %143, <16 x i8> %145, i32 2)
-  %388 = extractelement <4 x float> %387, i32 0
-  %389 = extractelement <4 x float> %387, i32 1
-  %390 = extractelement <4 x float> %387, i32 2
-  %391 = extractelement <4 x float> %387, i32 3
-  %392 = fcmp olt float 0.000000e+00, %390
-  %393 = sext i1 %392 to i32
-  %394 = bitcast i32 %393 to float
-  %395 = bitcast float %394 to i32
-  %396 = icmp ne i32 %395, 0
-  %temp112.1 = select i1 %396, float %389, float %388
-  %temp113.1 = select i1 %396, float %391, float %389
-  %397 = fmul float %.224, 2.000000e+00
-  %398 = fadd float %397, -1.000000e+00
-  %399 = fmul float %.225, 2.000000e+00
-  %400 = fadd float %399, -1.000000e+00
-  %401 = fmul float %temp112.1, 2.000000e+00
-  %402 = fadd float %401, -1.000000e+00
-  %403 = fmul float %temp113.1, 2.000000e+00
-  %404 = fadd float %403, -1.000000e+00
-  %405 = fsub float -0.000000e+00, %398
-  %406 = fmul float %405, %35
-  %407 = fsub float -0.000000e+00, %400
-  %408 = fmul float %407, %35
-  %409 = fsub float -0.000000e+00, %402
-  %410 = fmul float %409, %36
-  %411 = fsub float -0.000000e+00, %404
-  %412 = fmul float %411, %36
-  %413 = fmul float %410, %364
-  %414 = fmul float %412, %364
-  %415 = call float @fabs(float %406)
-  %416 = call float @fabs(float %408)
-  %417 = fsub float -0.000000e+00, %415
-  %418 = fadd float 1.000000e+00, %417
-  %419 = fsub float -0.000000e+00, %416
-  %420 = fadd float 1.000000e+00, %419
-  %421 = fmul float %418, %413
-  %422 = fadd float %421, %406
-  %423 = fmul float %420, %414
-  %424 = fadd float %423, %408
-  %425 = fmul float %422, %422
-  %426 = fmul float %424, %424
-  %427 = fadd float %425, %426
-  %428 = fsub float -0.000000e+00, %427
-  %429 = fadd float 0x3FF00068E0000000, %428
-  %430 = call float @llvm.AMDIL.clamp.(float %429, float 0.000000e+00, float 1.000000e+00)
-  %431 = call float @llvm.amdgcn.rsq.f32(float %430)
-  %432 = fmul float %431, %430
-  %433 = fsub float -0.000000e+00, %430
-  %cmp = fcmp ogt float 0.000000e+00, %433
-  %434 = select i1 %cmp, float %432, float 0.000000e+00
-  %435 = fmul float %184, %422
-  %436 = fmul float %185, %422
-  %437 = fmul float %186, %422
-  %438 = fmul float %187, %424
-  %439 = fadd float %438, %435
-  %440 = fmul float %188, %424
-  %441 = fadd float %440, %436
-  %442 = fmul float %189, %424
-  %443 = fadd float %442, %437
-  %444 = fmul float %190, %434
-  %445 = fadd float %444, %439
-  %446 = fmul float %191, %434
-  %447 = fadd float %446, %441
-  %448 = fmul float %192, %434
-  %449 = fadd float %448, %443
-  %450 = fmul float %445, %445
-  %451 = fmul float %447, %447
-  %452 = fadd float %451, %450
-  %453 = fmul float %449, %449
-  %454 = fadd float %452, %453
-  %455 = call float @llvm.amdgcn.rsq.f32(float %454)
-  %456 = fmul float %445, %455
-  %457 = fmul float %447, %455
-  %458 = fmul float %449, %455
-  %459 = fcmp olt float 0.000000e+00, %219
-  %460 = sext i1 %459 to i32
-  %461 = bitcast i32 %460 to float
-  %462 = bitcast float %461 to i32
-  %463 = icmp ne i32 %462, 0
-  br i1 %463, label %IF198, label %ENDIF197
+  %tmp358 = bitcast float %tmp336 to i32
+  %tmp359 = bitcast float %tmp337 to i32
+  %tmp360 = insertelement <2 x i32> undef, i32 %tmp358, i32 0
+  %tmp361 = insertelement <2 x i32> %tmp360, i32 %tmp359, i32 1
+  %tmp362 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp361, <32 x i8> %tmp150, <16 x i8> %tmp152, i32 2)
+  %tmp363 = extractelement <4 x float> %tmp362, i32 2
+  %tmp364 = fmul float %result.i40, %result.i
+  %tmp365 = fmul float %result.i36, %result.i44
+  %tmp366 = fmul float %result.i32, %result.i42
+  %tmp367 = fmul float %tmp354, %tmp229
+  %tmp368 = bitcast float %tmp310 to i32
+  %tmp369 = bitcast float %tmp311 to i32
+  %tmp370 = insertelement <2 x i32> undef, i32 %tmp368, i32 0
+  %tmp371 = insertelement <2 x i32> %tmp370, i32 %tmp369, i32 1
+  %tmp372 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp371, <32 x i8> %tmp138, <16 x i8> %tmp140, i32 2)
+  %tmp373 = extractelement <4 x float> %tmp372, i32 0
+  %tmp374 = extractelement <4 x float> %tmp372, i32 1
+  %tmp375 = extractelement <4 x float> %tmp372, i32 2
+  %tmp376 = extractelement <4 x float> %tmp372, i32 3
+  %tmp377 = fcmp olt float 0.000000e+00, %tmp375
+  %tmp378 = sext i1 %tmp377 to i32
+  %tmp379 = bitcast i32 %tmp378 to float
+  %tmp380 = bitcast float %tmp379 to i32
+  %tmp381 = icmp ne i32 %tmp380, 0
+  %.224 = select i1 %tmp381, float %tmp374, float %tmp373
+  %.225 = select i1 %tmp381, float %tmp376, float %tmp374
+  %tmp382 = bitcast float %tmp320 to i32
+  %tmp383 = bitcast float %tmp321 to i32
+  %tmp384 = insertelement <2 x i32> undef, i32 %tmp382, i32 0
+  %tmp385 = insertelement <2 x i32> %tmp384, i32 %tmp383, i32 1
+  %tmp386 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp385, <32 x i8> %tmp142, <16 x i8> %tmp144, i32 2)
+  %tmp387 = extractelement <4 x float> %tmp386, i32 0
+  %tmp388 = extractelement <4 x float> %tmp386, i32 1
+  %tmp389 = extractelement <4 x float> %tmp386, i32 2
+  %tmp390 = extractelement <4 x float> %tmp386, i32 3
+  %tmp391 = fcmp olt float 0.000000e+00, %tmp389
+  %tmp392 = sext i1 %tmp391 to i32
+  %tmp393 = bitcast i32 %tmp392 to float
+  %tmp394 = bitcast float %tmp393 to i32
+  %tmp395 = icmp ne i32 %tmp394, 0
+  %temp112.1 = select i1 %tmp395, float %tmp388, float %tmp387
+  %temp113.1 = select i1 %tmp395, float %tmp390, float %tmp388
+  %tmp396 = fmul float %.224, 2.000000e+00
+  %tmp397 = fadd float %tmp396, -1.000000e+00
+  %tmp398 = fmul float %.225, 2.000000e+00
+  %tmp399 = fadd float %tmp398, -1.000000e+00
+  %tmp400 = fmul float %temp112.1, 2.000000e+00
+  %tmp401 = fadd float %tmp400, -1.000000e+00
+  %tmp402 = fmul float %temp113.1, 2.000000e+00
+  %tmp403 = fadd float %tmp402, -1.000000e+00
+  %tmp404 = fsub float -0.000000e+00, %tmp397
+  %tmp405 = fmul float %tmp404, %tmp34
+  %tmp406 = fsub float -0.000000e+00, %tmp399
+  %tmp407 = fmul float %tmp406, %tmp34
+  %tmp408 = fsub float -0.000000e+00, %tmp401
+  %tmp409 = fmul float %tmp408, %tmp35
+  %tmp410 = fsub float -0.000000e+00, %tmp403
+  %tmp411 = fmul float %tmp410, %tmp35
+  %tmp412 = fmul float %tmp409, %tmp363
+  %tmp413 = fmul float %tmp411, %tmp363
+  %tmp414 = call float @fabs(float %tmp405)
+  %tmp415 = call float @fabs(float %tmp407)
+  %tmp416 = fsub float -0.000000e+00, %tmp414
+  %tmp417 = fadd float 1.000000e+00, %tmp416
+  %tmp418 = fsub float -0.000000e+00, %tmp415
+  %tmp419 = fadd float 1.000000e+00, %tmp418
+  %tmp420 = fmul float %tmp417, %tmp412
+  %tmp421 = fadd float %tmp420, %tmp405
+  %tmp422 = fmul float %tmp419, %tmp413
+  %tmp423 = fadd float %tmp422, %tmp407
+  %tmp424 = fmul float %tmp421, %tmp421
+  %tmp425 = fmul float %tmp423, %tmp423
+  %tmp426 = fadd float %tmp424, %tmp425
+  %tmp427 = fsub float -0.000000e+00, %tmp426
+  %tmp428 = fadd float 0x3FF00068E0000000, %tmp427
+  %tmp429 = call float @llvm.AMDIL.clamp.(float %tmp428, float 0.000000e+00, float 1.000000e+00)
+  %tmp430 = call float @llvm.amdgcn.rsq.f32(float %tmp429)
+  %tmp431 = fmul float %tmp430, %tmp429
+  %tmp432 = fsub float -0.000000e+00, %tmp429
+  %cmp = fcmp ogt float 0.000000e+00, %tmp432
+  %tmp433 = select i1 %cmp, float %tmp431, float 0.000000e+00
+  %tmp434 = fmul float %tmp183, %tmp421
+  %tmp435 = fmul float %tmp184, %tmp421
+  %tmp436 = fmul float %tmp185, %tmp421
+  %tmp437 = fmul float %tmp186, %tmp423
+  %tmp438 = fadd float %tmp437, %tmp434
+  %tmp439 = fmul float %tmp187, %tmp423
+  %tmp440 = fadd float %tmp439, %tmp435
+  %tmp441 = fmul float %tmp188, %tmp423
+  %tmp442 = fadd float %tmp441, %tmp436
+  %tmp443 = fmul float %tmp189, %tmp433
+  %tmp444 = fadd float %tmp443, %tmp438
+  %tmp445 = fmul float %tmp190, %tmp433
+  %tmp446 = fadd float %tmp445, %tmp440
+  %tmp447 = fmul float %tmp191, %tmp433
+  %tmp448 = fadd float %tmp447, %tmp442
+  %tmp449 = fmul float %tmp444, %tmp444
+  %tmp450 = fmul float %tmp446, %tmp446
+  %tmp451 = fadd float %tmp450, %tmp449
+  %tmp452 = fmul float %tmp448, %tmp448
+  %tmp453 = fadd float %tmp451, %tmp452
+  %tmp454 = call float @llvm.amdgcn.rsq.f32(float %tmp453)
+  %tmp455 = fmul float %tmp444, %tmp454
+  %tmp456 = fmul float %tmp446, %tmp454
+  %tmp457 = fmul float %tmp448, %tmp454
+  %tmp458 = fcmp olt float 0.000000e+00, %tmp218
+  %tmp459 = sext i1 %tmp458 to i32
+  %tmp460 = bitcast i32 %tmp459 to float
+  %tmp461 = bitcast float %tmp460 to i32
+  %tmp462 = icmp ne i32 %tmp461, 0
+  br i1 %tmp462, label %IF198, label %ENDIF197
 
 IF198:                                            ; preds = %IF189
-  %464 = fsub float -0.000000e+00, %456
-  %465 = fsub float -0.000000e+00, %457
-  %466 = fsub float -0.000000e+00, %458
+  %tmp463 = fsub float -0.000000e+00, %tmp455
+  %tmp464 = fsub float -0.000000e+00, %tmp456
+  %tmp465 = fsub float -0.000000e+00, %tmp457
   br label %ENDIF197
 
 ENDIF197:                                         ; preds = %IF198, %IF189
-  %temp14.0 = phi float [ %466, %IF198 ], [ %458, %IF189 ]
-  %temp13.0 = phi float [ %465, %IF198 ], [ %457, %IF189 ]
-  %temp12.0 = phi float [ %464, %IF198 ], [ %456, %IF189 ]
-  %467 = bitcast float %220 to i32
-  %468 = bitcast float %221 to i32
-  %469 = insertelement <2 x i32> undef, i32 %467, i32 0
-  %470 = insertelement <2 x i32> %469, i32 %468, i32 1
-  %471 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %470, <32 x i8> %159, <16 x i8> %161, i32 2)
-  %472 = extractelement <4 x float> %471, i32 0
-  %473 = extractelement <4 x float> %471, i32 1
-  %474 = extractelement <4 x float> %471, i32 2
-  %475 = extractelement <4 x float> %471, i32 3
-  %476 = fmul float %472, %40
-  %477 = fadd float %476, %41
-  %478 = fmul float %473, %40
-  %479 = fadd float %478, %41
-  %480 = fmul float %474, %40
-  %481 = fadd float %480, %41
-  %482 = fmul float %475, %42
-  %483 = fadd float %482, %43
-  %484 = bitcast float %172 to i32
-  %485 = bitcast float %173 to i32
-  %486 = insertelement <2 x i32> undef, i32 %484, i32 0
-  %487 = insertelement <2 x i32> %486, i32 %485, i32 1
-  %488 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %487, <32 x i8> %155, <16 x i8> %157, i32 2)
-  %489 = extractelement <4 x float> %488, i32 0
-  %490 = extractelement <4 x float> %488, i32 1
-  %491 = extractelement <4 x float> %488, i32 2
-  %492 = extractelement <4 x float> %488, i32 3
-  %493 = fmul float %492, 3.200000e+01
-  %494 = fadd float %493, -1.600000e+01
-  %495 = call float @llvm.AMDIL.exp.(float %494)
-  %496 = fmul float %489, %495
-  %497 = fmul float %490, %495
-  %498 = fmul float %491, %495
-  %499 = fmul float %28, %496
-  %500 = fadd float %499, %193
-  %501 = fmul float %29, %497
-  %502 = fadd float %501, %194
-  %503 = fmul float %30, %498
-  %504 = fadd float %503, %195
-  %505 = fmul float %500, %483
-  %506 = fmul float %502, %483
-  %507 = fmul float %504, %483
-  %508 = fmul float %483, 5.000000e-01
-  %509 = fadd float %508, 5.000000e-01
-  %510 = fmul float %477, %509
-  %511 = fadd float %510, %505
-  %512 = fmul float %479, %509
-  %513 = fadd float %512, %506
-  %514 = fmul float %481, %509
-  %515 = fadd float %514, %507
-  %516 = fmul float %511, %365
-  %517 = fmul float %513, %366
-  %518 = fmul float %515, %367
-  %519 = fmul float %422, 0x3FDB272440000000
-  %520 = fmul float %424, 0xBFDB272440000000
-  %521 = fadd float %520, %519
-  %522 = fmul float %434, 0x3FE99999A0000000
-  %523 = fadd float %521, %522
-  %524 = fmul float %523, 5.000000e-01
-  %525 = fadd float %524, 0x3FE3333340000000
-  %526 = fmul float %525, %525
-  %527 = fmul float %516, %526
-  %528 = fmul float %517, %526
-  %529 = fmul float %518, %526
-  %530 = fsub float -0.000000e+00, %72
-  %531 = fsub float -0.000000e+00, %73
-  %532 = fsub float -0.000000e+00, %74
-  %533 = fmul float %temp12.0, %530
-  %534 = fmul float %temp13.0, %531
-  %535 = fadd float %534, %533
-  %536 = fmul float %temp14.0, %532
-  %537 = fadd float %535, %536
-  %538 = call float @llvm.AMDIL.clamp.(float %537, float 0.000000e+00, float 1.000000e+00)
-  %539 = fmul float %365, %538
-  %540 = fmul float %366, %538
-  %541 = fmul float %367, %538
-  %542 = fmul float %539, %69
-  %543 = fmul float %540, %70
-  %544 = fmul float %541, %71
-  %545 = fsub float -0.000000e+00, %164
-  %546 = fadd float %97, %545
-  %547 = fsub float -0.000000e+00, %165
-  %548 = fadd float %98, %547
-  %549 = fsub float -0.000000e+00, %166
-  %550 = fadd float %99, %549
-  %551 = fmul float %546, %546
-  %552 = fmul float %548, %548
-  %553 = fadd float %552, %551
-  %554 = fmul float %550, %550
-  %555 = fadd float %553, %554
-  %556 = call float @llvm.amdgcn.rsq.f32(float %555)
-  %557 = fmul float %556, %555
-  %558 = fsub float -0.000000e+00, %555
-  %cmp1 = fcmp ogt float %558, 0.000000e+00
-  %559 = select i1 %cmp1, float %557, float 0.000000e+00
-  %560 = fsub float -0.000000e+00, %84
-  %561 = fadd float %559, %560
-  %562 = fsub float -0.000000e+00, %83
-  %563 = fadd float %559, %562
-  %564 = fsub float -0.000000e+00, %82
-  %565 = fadd float %559, %564
-  %566 = fsub float -0.000000e+00, %84
-  %567 = fadd float %83, %566
-  %568 = fsub float -0.000000e+00, %83
-  %569 = fadd float %82, %568
-  %570 = fsub float -0.000000e+00, %82
-  %571 = fadd float %81, %570
-  %572 = fdiv float 1.000000e+00, %567
-  %573 = fdiv float 1.000000e+00, %569
-  %574 = fdiv float 1.000000e+00, %571
-  %575 = fmul float %561, %572
-  %576 = fmul float %563, %573
-  %577 = fmul float %565, %574
-  %578 = fcmp olt float %559, %83
-  %579 = sext i1 %578 to i32
-  %580 = bitcast i32 %579 to float
-  %581 = bitcast float %580 to i32
-  %582 = icmp ne i32 %581, 0
-  br i1 %582, label %ENDIF200, label %ELSE202
+  %temp14.0 = phi float [ %tmp465, %IF198 ], [ %tmp457, %IF189 ]
+  %temp13.0 = phi float [ %tmp464, %IF198 ], [ %tmp456, %IF189 ]
+  %temp12.0 = phi float [ %tmp463, %IF198 ], [ %tmp455, %IF189 ]
+  %tmp466 = bitcast float %tmp219 to i32
+  %tmp467 = bitcast float %tmp220 to i32
+  %tmp468 = insertelement <2 x i32> undef, i32 %tmp466, i32 0
+  %tmp469 = insertelement <2 x i32> %tmp468, i32 %tmp467, i32 1
+  %tmp470 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp469, <32 x i8> %tmp158, <16 x i8> %tmp160, i32 2)
+  %tmp471 = extractelement <4 x float> %tmp470, i32 0
+  %tmp472 = extractelement <4 x float> %tmp470, i32 1
+  %tmp473 = extractelement <4 x float> %tmp470, i32 2
+  %tmp474 = extractelement <4 x float> %tmp470, i32 3
+  %tmp475 = fmul float %tmp471, %tmp39
+  %tmp476 = fadd float %tmp475, %tmp40
+  %tmp477 = fmul float %tmp472, %tmp39
+  %tmp478 = fadd float %tmp477, %tmp40
+  %tmp479 = fmul float %tmp473, %tmp39
+  %tmp480 = fadd float %tmp479, %tmp40
+  %tmp481 = fmul float %tmp474, %tmp41
+  %tmp482 = fadd float %tmp481, %tmp42
+  %tmp483 = bitcast float %tmp171 to i32
+  %tmp484 = bitcast float %tmp172 to i32
+  %tmp485 = insertelement <2 x i32> undef, i32 %tmp483, i32 0
+  %tmp486 = insertelement <2 x i32> %tmp485, i32 %tmp484, i32 1
+  %tmp487 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp486, <32 x i8> %tmp154, <16 x i8> %tmp156, i32 2)
+  %tmp488 = extractelement <4 x float> %tmp487, i32 0
+  %tmp489 = extractelement <4 x float> %tmp487, i32 1
+  %tmp490 = extractelement <4 x float> %tmp487, i32 2
+  %tmp491 = extractelement <4 x float> %tmp487, i32 3
+  %tmp492 = fmul float %tmp491, 3.200000e+01
+  %tmp493 = fadd float %tmp492, -1.600000e+01
+  %tmp494 = call float @llvm.AMDIL.exp.(float %tmp493)
+  %tmp495 = fmul float %tmp488, %tmp494
+  %tmp496 = fmul float %tmp489, %tmp494
+  %tmp497 = fmul float %tmp490, %tmp494
+  %tmp498 = fmul float %tmp27, %tmp495
+  %tmp499 = fadd float %tmp498, %tmp192
+  %tmp500 = fmul float %tmp28, %tmp496
+  %tmp501 = fadd float %tmp500, %tmp193
+  %tmp502 = fmul float %tmp29, %tmp497
+  %tmp503 = fadd float %tmp502, %tmp194
+  %tmp504 = fmul float %tmp499, %tmp482
+  %tmp505 = fmul float %tmp501, %tmp482
+  %tmp506 = fmul float %tmp503, %tmp482
+  %tmp507 = fmul float %tmp482, 5.000000e-01
+  %tmp508 = fadd float %tmp507, 5.000000e-01
+  %tmp509 = fmul float %tmp476, %tmp508
+  %tmp510 = fadd float %tmp509, %tmp504
+  %tmp511 = fmul float %tmp478, %tmp508
+  %tmp512 = fadd float %tmp511, %tmp505
+  %tmp513 = fmul float %tmp480, %tmp508
+  %tmp514 = fadd float %tmp513, %tmp506
+  %tmp515 = fmul float %tmp510, %tmp364
+  %tmp516 = fmul float %tmp512, %tmp365
+  %tmp517 = fmul float %tmp514, %tmp366
+  %tmp518 = fmul float %tmp421, 0x3FDB272440000000
+  %tmp519 = fmul float %tmp423, 0xBFDB272440000000
+  %tmp520 = fadd float %tmp519, %tmp518
+  %tmp521 = fmul float %tmp433, 0x3FE99999A0000000
+  %tmp522 = fadd float %tmp520, %tmp521
+  %tmp523 = fmul float %tmp522, 5.000000e-01
+  %tmp524 = fadd float %tmp523, 0x3FE3333340000000
+  %tmp525 = fmul float %tmp524, %tmp524
+  %tmp526 = fmul float %tmp515, %tmp525
+  %tmp527 = fmul float %tmp516, %tmp525
+  %tmp528 = fmul float %tmp517, %tmp525
+  %tmp529 = fsub float -0.000000e+00, %tmp71
+  %tmp530 = fsub float -0.000000e+00, %tmp72
+  %tmp531 = fsub float -0.000000e+00, %tmp73
+  %tmp532 = fmul float %temp12.0, %tmp529
+  %tmp533 = fmul float %temp13.0, %tmp530
+  %tmp534 = fadd float %tmp533, %tmp532
+  %tmp535 = fmul float %temp14.0, %tmp531
+  %tmp536 = fadd float %tmp534, %tmp535
+  %tmp537 = call float @llvm.AMDIL.clamp.(float %tmp536, float 0.000000e+00, float 1.000000e+00)
+  %tmp538 = fmul float %tmp364, %tmp537
+  %tmp539 = fmul float %tmp365, %tmp537
+  %tmp540 = fmul float %tmp366, %tmp537
+  %tmp541 = fmul float %tmp538, %tmp68
+  %tmp542 = fmul float %tmp539, %tmp69
+  %tmp543 = fmul float %tmp540, %tmp70
+  %tmp544 = fsub float -0.000000e+00, %tmp163
+  %tmp545 = fadd float %tmp96, %tmp544
+  %tmp546 = fsub float -0.000000e+00, %tmp164
+  %tmp547 = fadd float %tmp97, %tmp546
+  %tmp548 = fsub float -0.000000e+00, %tmp165
+  %tmp549 = fadd float %tmp98, %tmp548
+  %tmp550 = fmul float %tmp545, %tmp545
+  %tmp551 = fmul float %tmp547, %tmp547
+  %tmp552 = fadd float %tmp551, %tmp550
+  %tmp553 = fmul float %tmp549, %tmp549
+  %tmp554 = fadd float %tmp552, %tmp553
+  %tmp555 = call float @llvm.amdgcn.rsq.f32(float %tmp554)
+  %tmp556 = fmul float %tmp555, %tmp554
+  %tmp557 = fsub float -0.000000e+00, %tmp554
+  %cmp1 = fcmp ogt float %tmp557, 0.000000e+00
+  %tmp558 = select i1 %cmp1, float %tmp556, float 0.000000e+00
+  %tmp559 = fsub float -0.000000e+00, %tmp83
+  %tmp560 = fadd float %tmp558, %tmp559
+  %tmp561 = fsub float -0.000000e+00, %tmp82
+  %tmp562 = fadd float %tmp558, %tmp561
+  %tmp563 = fsub float -0.000000e+00, %tmp81
+  %tmp564 = fadd float %tmp558, %tmp563
+  %tmp565 = fsub float -0.000000e+00, %tmp83
+  %tmp566 = fadd float %tmp82, %tmp565
+  %tmp567 = fsub float -0.000000e+00, %tmp82
+  %tmp568 = fadd float %tmp81, %tmp567
+  %tmp569 = fsub float -0.000000e+00, %tmp81
+  %tmp570 = fadd float %tmp80, %tmp569
+  %tmp571 = fdiv float 1.000000e+00, %tmp566
+  %tmp572 = fdiv float 1.000000e+00, %tmp568
+  %tmp573 = fdiv float 1.000000e+00, %tmp570
+  %tmp574 = fmul float %tmp560, %tmp571
+  %tmp575 = fmul float %tmp562, %tmp572
+  %tmp576 = fmul float %tmp564, %tmp573
+  %tmp577 = fcmp olt float %tmp558, %tmp82
+  %tmp578 = sext i1 %tmp577 to i32
+  %tmp579 = bitcast i32 %tmp578 to float
+  %tmp580 = bitcast float %tmp579 to i32
+  %tmp581 = icmp ne i32 %tmp580, 0
+  br i1 %tmp581, label %ENDIF200, label %ELSE202
 
 ELSE202:                                          ; preds = %ENDIF197
-  %583 = fcmp olt float %559, %82
-  %584 = sext i1 %583 to i32
-  %585 = bitcast i32 %584 to float
-  %586 = bitcast float %585 to i32
-  %587 = icmp ne i32 %586, 0
-  br i1 %587, label %ENDIF200, label %ELSE205
+  %tmp582 = fcmp olt float %tmp558, %tmp81
+  %tmp583 = sext i1 %tmp582 to i32
+  %tmp584 = bitcast i32 %tmp583 to float
+  %tmp585 = bitcast float %tmp584 to i32
+  %tmp586 = icmp ne i32 %tmp585, 0
+  br i1 %tmp586, label %ENDIF200, label %ELSE205
 
 ENDIF200:                                         ; preds = %ELSE205, %ELSE202, %ENDIF197
-  %temp80.0 = phi float [ %575, %ENDIF197 ], [ %.226, %ELSE205 ], [ %576, %ELSE202 ]
-  %temp88.0 = phi float [ %122, %ENDIF197 ], [ %.227, %ELSE205 ], [ %120, %ELSE202 ]
-  %temp89.0 = phi float [ %123, %ENDIF197 ], [ %.228, %ELSE205 ], [ %121, %ELSE202 ]
-  %temp90.0 = phi float [ %120, %ENDIF197 ], [ %116, %ELSE205 ], [ %118, %ELSE202 ]
-  %temp91.0 = phi float [ %121, %ENDIF197 ], [ %117, %ELSE205 ], [ %119, %ELSE202 ]
-  %588 = fcmp olt float %559, %83
-  %589 = sext i1 %588 to i32
-  %590 = bitcast i32 %589 to float
-  %591 = bitcast float %590 to i32
-  %592 = icmp ne i32 %591, 0
-  br i1 %592, label %ENDIF209, label %ELSE211
+  %temp80.0 = phi float [ %tmp574, %ENDIF197 ], [ %.226, %ELSE205 ], [ %tmp575, %ELSE202 ]
+  %temp88.0 = phi float [ %tmp121, %ENDIF197 ], [ %.227, %ELSE205 ], [ %tmp119, %ELSE202 ]
+  %temp89.0 = phi float [ %tmp122, %ENDIF197 ], [ %.228, %ELSE205 ], [ %tmp120, %ELSE202 ]
+  %temp90.0 = phi float [ %tmp119, %ENDIF197 ], [ %tmp115, %ELSE205 ], [ %tmp117, %ELSE202 ]
+  %temp91.0 = phi float [ %tmp120, %ENDIF197 ], [ %tmp116, %ELSE205 ], [ %tmp118, %ELSE202 ]
+  %tmp587 = fcmp olt float %tmp558, %tmp82
+  %tmp588 = sext i1 %tmp587 to i32
+  %tmp589 = bitcast i32 %tmp588 to float
+  %tmp590 = bitcast float %tmp589 to i32
+  %tmp591 = icmp ne i32 %tmp590, 0
+  br i1 %tmp591, label %ENDIF209, label %ELSE211
 
 ELSE205:                                          ; preds = %ELSE202
-  %593 = fcmp olt float %559, %81
-  %594 = sext i1 %593 to i32
-  %595 = bitcast i32 %594 to float
-  %596 = bitcast float %595 to i32
-  %597 = icmp ne i32 %596, 0
-  %.226 = select i1 %597, float %577, float 1.000000e+00
-  %.227 = select i1 %597, float %118, float %116
-  %.228 = select i1 %597, float %119, float %117
+  %tmp592 = fcmp olt float %tmp558, %tmp80
+  %tmp593 = sext i1 %tmp592 to i32
+  %tmp594 = bitcast i32 %tmp593 to float
+  %tmp595 = bitcast float %tmp594 to i32
+  %tmp596 = icmp ne i32 %tmp595, 0
+  %.226 = select i1 %tmp596, float %tmp576, float 1.000000e+00
+  %.227 = select i1 %tmp596, float %tmp117, float %tmp115
+  %.228 = select i1 %tmp596, float %tmp118, float %tmp116
   br label %ENDIF200
 
 ELSE211:                                          ; preds = %ENDIF200
-  %598 = fcmp olt float %559, %82
-  %599 = sext i1 %598 to i32
-  %600 = bitcast i32 %599 to float
-  %601 = bitcast float %600 to i32
-  %602 = icmp ne i32 %601, 0
-  br i1 %602, label %ENDIF209, label %ELSE214
+  %tmp597 = fcmp olt float %tmp558, %tmp81
+  %tmp598 = sext i1 %tmp597 to i32
+  %tmp599 = bitcast i32 %tmp598 to float
+  %tmp600 = bitcast float %tmp599 to i32
+  %tmp601 = icmp ne i32 %tmp600, 0
+  br i1 %tmp601, label %ENDIF209, label %ELSE214
 
 ENDIF209:                                         ; preds = %ELSE214, %ELSE211, %ENDIF200
-  %temp52.0 = phi float [ %108, %ENDIF200 ], [ %100, %ELSE214 ], [ %104, %ELSE211 ]
-  %temp53.0 = phi float [ %109, %ENDIF200 ], [ %101, %ELSE214 ], [ %105, %ELSE211 ]
-  %temp54.0 = phi float [ %110, %ENDIF200 ], [ %102, %ELSE214 ], [ %106, %ELSE211 ]
-  %temp55.0 = phi float [ %111, %ENDIF200 ], [ %103, %ELSE214 ], [ %107, %ELSE211 ]
-  %temp68.0 = phi float [ %112, %ENDIF200 ], [ %.230, %ELSE214 ], [ %108, %ELSE211 ]
-  %temp69.0 = phi float [ %113, %ENDIF200 ], [ %.231, %ELSE214 ], [ %109, %ELSE211 ]
-  %temp70.0 = phi float [ %114, %ENDIF200 ], [ %.232, %ELSE214 ], [ %110, %ELSE211 ]
-  %temp71.0 = phi float [ %115, %ENDIF200 ], [ %.233, %ELSE214 ], [ %111, %ELSE211 ]
-  %603 = fmul float %164, %85
-  %604 = fmul float %165, %86
-  %605 = fadd float %603, %604
-  %606 = fmul float %166, %87
-  %607 = fadd float %605, %606
-  %608 = fmul float %167, %88
-  %609 = fadd float %607, %608
-  %610 = fmul float %164, %89
-  %611 = fmul float %165, %90
-  %612 = fadd float %610, %611
-  %613 = fmul float %166, %91
-  %614 = fadd float %612, %613
-  %615 = fmul float %167, %92
-  %616 = fadd float %614, %615
-  %617 = fmul float %164, %93
-  %618 = fmul float %165, %94
-  %619 = fadd float %617, %618
-  %620 = fmul float %166, %95
-  %621 = fadd float %619, %620
-  %622 = fmul float %167, %96
-  %623 = fadd float %621, %622
-  %624 = fsub float -0.000000e+00, %78
-  %625 = fadd float 1.000000e+00, %624
-  %626 = call float @fabs(float %609)
-  %627 = call float @fabs(float %616)
-  %628 = fcmp oge float %625, %626
-  %629 = sext i1 %628 to i32
-  %630 = bitcast i32 %629 to float
-  %631 = bitcast float %630 to i32
-  %632 = and i32 %631, 1065353216
-  %633 = bitcast i32 %632 to float
-  %634 = fcmp oge float %625, %627
-  %635 = sext i1 %634 to i32
-  %636 = bitcast i32 %635 to float
-  %637 = bitcast float %636 to i32
-  %638 = and i32 %637, 1065353216
-  %639 = bitcast i32 %638 to float
-  %640 = fmul float %633, %639
-  %641 = fmul float %623, %640
-  %642 = fmul float %609, %temp68.0
-  %643 = fadd float %642, %temp70.0
-  %644 = fmul float %616, %temp69.0
-  %645 = fadd float %644, %temp71.0
-  %646 = fmul float %609, %temp52.0
-  %647 = fadd float %646, %temp54.0
-  %648 = fmul float %616, %temp53.0
-  %649 = fadd float %648, %temp55.0
-  %650 = fadd float %temp80.0, -1.000000e+00
-  %651 = fmul float %650, %77
-  %652 = fadd float %651, 1.000000e+00
-  %653 = call float @llvm.AMDIL.clamp.(float %652, float 0.000000e+00, float 1.000000e+00)
-  %654 = bitcast float %643 to i32
-  %655 = bitcast float %645 to i32
-  %656 = bitcast float 0.000000e+00 to i32
-  %657 = insertelement <4 x i32> undef, i32 %654, i32 0
-  %658 = insertelement <4 x i32> %657, i32 %655, i32 1
-  %659 = insertelement <4 x i32> %658, i32 %656, i32 2
-  %660 = insertelement <4 x i32> %659, i32 undef, i32 3
-  %661 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %660, <32 x i8> %127, <16 x i8> %129, i32 2)
-  %662 = extractelement <4 x float> %661, i32 0
-  %663 = extractelement <4 x float> %661, i32 1
-  %664 = bitcast float %647 to i32
-  %665 = bitcast float %649 to i32
-  %666 = bitcast float 0.000000e+00 to i32
-  %667 = insertelement <4 x i32> undef, i32 %664, i32 0
-  %668 = insertelement <4 x i32> %667, i32 %665, i32 1
-  %669 = insertelement <4 x i32> %668, i32 %666, i32 2
-  %670 = insertelement <4 x i32> %669, i32 undef, i32 3
-  %671 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %670, <32 x i8> %127, <16 x i8> %129, i32 2)
-  %672 = extractelement <4 x float> %671, i32 0
-  %673 = extractelement <4 x float> %671, i32 1
-  %674 = fsub float -0.000000e+00, %663
-  %675 = fadd float 1.000000e+00, %674
-  %676 = fsub float -0.000000e+00, %673
-  %677 = fadd float 1.000000e+00, %676
-  %678 = fmul float %675, 2.500000e-01
-  %679 = fmul float %677, 2.500000e-01
-  %680 = fsub float -0.000000e+00, %678
-  %681 = fadd float %662, %680
-  %682 = fsub float -0.000000e+00, %679
-  %683 = fadd float %672, %682
-  %684 = fmul float %641, %temp88.0
-  %685 = fadd float %684, %temp89.0
-  %686 = fmul float %641, %temp90.0
-  %687 = fadd float %686, %temp91.0
-  %688 = call float @llvm.AMDIL.clamp.(float %685, float 0.000000e+00, float 1.000000e+00)
-  %689 = call float @llvm.AMDIL.clamp.(float %687, float 0.000000e+00, float 1.000000e+00)
-  %690 = fsub float -0.000000e+00, %688
-  %691 = fadd float %662, %690
-  %692 = fsub float -0.000000e+00, %689
-  %693 = fadd float %672, %692
-  %694 = fmul float %662, %662
-  %695 = fmul float %672, %672
-  %696 = fsub float -0.000000e+00, %694
-  %697 = fadd float %681, %696
-  %698 = fsub float -0.000000e+00, %695
-  %699 = fadd float %683, %698
-  %700 = fcmp uge float %697, %75
-  %701 = select i1 %700, float %697, float %75
-  %702 = fcmp uge float %699, %75
-  %703 = select i1 %702, float %699, float %75
-  %704 = fmul float %691, %691
-  %705 = fadd float %704, %701
-  %706 = fmul float %693, %693
-  %707 = fadd float %706, %703
-  %708 = fdiv float 1.000000e+00, %705
-  %709 = fdiv float 1.000000e+00, %707
-  %710 = fmul float %701, %708
-  %711 = fmul float %703, %709
-  %712 = fcmp oge float %691, 0.000000e+00
-  %713 = sext i1 %712 to i32
-  %714 = bitcast i32 %713 to float
-  %715 = bitcast float %714 to i32
-  %716 = icmp ne i32 %715, 0
-  %.229 = select i1 %716, float 1.000000e+00, float %710
-  %717 = fcmp oge float %693, 0.000000e+00
-  %718 = sext i1 %717 to i32
-  %719 = bitcast i32 %718 to float
-  %720 = bitcast float %719 to i32
-  %721 = icmp ne i32 %720, 0
-  %temp28.0 = select i1 %721, float 1.000000e+00, float %711
-  %one.sub.a.i25 = fsub float 1.000000e+00, %653
+  %temp52.0 = phi float [ %tmp107, %ENDIF200 ], [ %tmp99, %ELSE214 ], [ %tmp103, %ELSE211 ]
+  %temp53.0 = phi float [ %tmp108, %ENDIF200 ], [ %tmp100, %ELSE214 ], [ %tmp104, %ELSE211 ]
+  %temp54.0 = phi float [ %tmp109, %ENDIF200 ], [ %tmp101, %ELSE214 ], [ %tmp105, %ELSE211 ]
+  %temp55.0 = phi float [ %tmp110, %ENDIF200 ], [ %tmp102, %ELSE214 ], [ %tmp106, %ELSE211 ]
+  %temp68.0 = phi float [ %tmp111, %ENDIF200 ], [ %.230, %ELSE214 ], [ %tmp107, %ELSE211 ]
+  %temp69.0 = phi float [ %tmp112, %ENDIF200 ], [ %.231, %ELSE214 ], [ %tmp108, %ELSE211 ]
+  %temp70.0 = phi float [ %tmp113, %ENDIF200 ], [ %.232, %ELSE214 ], [ %tmp109, %ELSE211 ]
+  %temp71.0 = phi float [ %tmp114, %ENDIF200 ], [ %.233, %ELSE214 ], [ %tmp110, %ELSE211 ]
+  %tmp602 = fmul float %tmp163, %tmp84
+  %tmp603 = fmul float %tmp164, %tmp85
+  %tmp604 = fadd float %tmp602, %tmp603
+  %tmp605 = fmul float %tmp165, %tmp86
+  %tmp606 = fadd float %tmp604, %tmp605
+  %tmp607 = fmul float %tmp166, %tmp87
+  %tmp608 = fadd float %tmp606, %tmp607
+  %tmp609 = fmul float %tmp163, %tmp88
+  %tmp610 = fmul float %tmp164, %tmp89
+  %tmp611 = fadd float %tmp609, %tmp610
+  %tmp612 = fmul float %tmp165, %tmp90
+  %tmp613 = fadd float %tmp611, %tmp612
+  %tmp614 = fmul float %tmp166, %tmp91
+  %tmp615 = fadd float %tmp613, %tmp614
+  %tmp616 = fmul float %tmp163, %tmp92
+  %tmp617 = fmul float %tmp164, %tmp93
+  %tmp618 = fadd float %tmp616, %tmp617
+  %tmp619 = fmul float %tmp165, %tmp94
+  %tmp620 = fadd float %tmp618, %tmp619
+  %tmp621 = fmul float %tmp166, %tmp95
+  %tmp622 = fadd float %tmp620, %tmp621
+  %tmp623 = fsub float -0.000000e+00, %tmp77
+  %tmp624 = fadd float 1.000000e+00, %tmp623
+  %tmp625 = call float @fabs(float %tmp608)
+  %tmp626 = call float @fabs(float %tmp615)
+  %tmp627 = fcmp oge float %tmp624, %tmp625
+  %tmp628 = sext i1 %tmp627 to i32
+  %tmp629 = bitcast i32 %tmp628 to float
+  %tmp630 = bitcast float %tmp629 to i32
+  %tmp631 = and i32 %tmp630, 1065353216
+  %tmp632 = bitcast i32 %tmp631 to float
+  %tmp633 = fcmp oge float %tmp624, %tmp626
+  %tmp634 = sext i1 %tmp633 to i32
+  %tmp635 = bitcast i32 %tmp634 to float
+  %tmp636 = bitcast float %tmp635 to i32
+  %tmp637 = and i32 %tmp636, 1065353216
+  %tmp638 = bitcast i32 %tmp637 to float
+  %tmp639 = fmul float %tmp632, %tmp638
+  %tmp640 = fmul float %tmp622, %tmp639
+  %tmp641 = fmul float %tmp608, %temp68.0
+  %tmp642 = fadd float %tmp641, %temp70.0
+  %tmp643 = fmul float %tmp615, %temp69.0
+  %tmp644 = fadd float %tmp643, %temp71.0
+  %tmp645 = fmul float %tmp608, %temp52.0
+  %tmp646 = fadd float %tmp645, %temp54.0
+  %tmp647 = fmul float %tmp615, %temp53.0
+  %tmp648 = fadd float %tmp647, %temp55.0
+  %tmp649 = fadd float %temp80.0, -1.000000e+00
+  %tmp650 = fmul float %tmp649, %tmp76
+  %tmp651 = fadd float %tmp650, 1.000000e+00
+  %tmp652 = call float @llvm.AMDIL.clamp.(float %tmp651, float 0.000000e+00, float 1.000000e+00)
+  %tmp653 = bitcast float %tmp642 to i32
+  %tmp654 = bitcast float %tmp644 to i32
+  %tmp655 = bitcast float 0.000000e+00 to i32
+  %tmp656 = insertelement <4 x i32> undef, i32 %tmp653, i32 0
+  %tmp657 = insertelement <4 x i32> %tmp656, i32 %tmp654, i32 1
+  %tmp658 = insertelement <4 x i32> %tmp657, i32 %tmp655, i32 2
+  %tmp659 = insertelement <4 x i32> %tmp658, i32 undef, i32 3
+  %tmp660 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp659, <32 x i8> %tmp126, <16 x i8> %tmp128, i32 2)
+  %tmp661 = extractelement <4 x float> %tmp660, i32 0
+  %tmp662 = extractelement <4 x float> %tmp660, i32 1
+  %tmp663 = bitcast float %tmp646 to i32
+  %tmp664 = bitcast float %tmp648 to i32
+  %tmp665 = bitcast float 0.000000e+00 to i32
+  %tmp666 = insertelement <4 x i32> undef, i32 %tmp663, i32 0
+  %tmp667 = insertelement <4 x i32> %tmp666, i32 %tmp664, i32 1
+  %tmp668 = insertelement <4 x i32> %tmp667, i32 %tmp665, i32 2
+  %tmp669 = insertelement <4 x i32> %tmp668, i32 undef, i32 3
+  %tmp670 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp669, <32 x i8> %tmp126, <16 x i8> %tmp128, i32 2)
+  %tmp671 = extractelement <4 x float> %tmp670, i32 0
+  %tmp672 = extractelement <4 x float> %tmp670, i32 1
+  %tmp673 = fsub float -0.000000e+00, %tmp662
+  %tmp674 = fadd float 1.000000e+00, %tmp673
+  %tmp675 = fsub float -0.000000e+00, %tmp672
+  %tmp676 = fadd float 1.000000e+00, %tmp675
+  %tmp677 = fmul float %tmp674, 2.500000e-01
+  %tmp678 = fmul float %tmp676, 2.500000e-01
+  %tmp679 = fsub float -0.000000e+00, %tmp677
+  %tmp680 = fadd float %tmp661, %tmp679
+  %tmp681 = fsub float -0.000000e+00, %tmp678
+  %tmp682 = fadd float %tmp671, %tmp681
+  %tmp683 = fmul float %tmp640, %temp88.0
+  %tmp684 = fadd float %tmp683, %temp89.0
+  %tmp685 = fmul float %tmp640, %temp90.0
+  %tmp686 = fadd float %tmp685, %temp91.0
+  %tmp687 = call float @llvm.AMDIL.clamp.(float %tmp684, float 0.000000e+00, float 1.000000e+00)
+  %tmp688 = call float @llvm.AMDIL.clamp.(float %tmp686, float 0.000000e+00, float 1.000000e+00)
+  %tmp689 = fsub float -0.000000e+00, %tmp687
+  %tmp690 = fadd float %tmp661, %tmp689
+  %tmp691 = fsub float -0.000000e+00, %tmp688
+  %tmp692 = fadd float %tmp671, %tmp691
+  %tmp693 = fmul float %tmp661, %tmp661
+  %tmp694 = fmul float %tmp671, %tmp671
+  %tmp695 = fsub float -0.000000e+00, %tmp693
+  %tmp696 = fadd float %tmp680, %tmp695
+  %tmp697 = fsub float -0.000000e+00, %tmp694
+  %tmp698 = fadd float %tmp682, %tmp697
+  %tmp699 = fcmp uge float %tmp696, %tmp74
+  %tmp700 = select i1 %tmp699, float %tmp696, float %tmp74
+  %tmp701 = fcmp uge float %tmp698, %tmp74
+  %tmp702 = select i1 %tmp701, float %tmp698, float %tmp74
+  %tmp703 = fmul float %tmp690, %tmp690
+  %tmp704 = fadd float %tmp703, %tmp700
+  %tmp705 = fmul float %tmp692, %tmp692
+  %tmp706 = fadd float %tmp705, %tmp702
+  %tmp707 = fdiv float 1.000000e+00, %tmp704
+  %tmp708 = fdiv float 1.000000e+00, %tmp706
+  %tmp709 = fmul float %tmp700, %tmp707
+  %tmp710 = fmul float %tmp702, %tmp708
+  %tmp711 = fcmp oge float %tmp690, 0.000000e+00
+  %tmp712 = sext i1 %tmp711 to i32
+  %tmp713 = bitcast i32 %tmp712 to float
+  %tmp714 = bitcast float %tmp713 to i32
+  %tmp715 = icmp ne i32 %tmp714, 0
+  %.229 = select i1 %tmp715, float 1.000000e+00, float %tmp709
+  %tmp716 = fcmp oge float %tmp692, 0.000000e+00
+  %tmp717 = sext i1 %tmp716 to i32
+  %tmp718 = bitcast i32 %tmp717 to float
+  %tmp719 = bitcast float %tmp718 to i32
+  %tmp720 = icmp ne i32 %tmp719, 0
+  %temp28.0 = select i1 %tmp720, float 1.000000e+00, float %tmp710
+  %one.sub.a.i25 = fsub float 1.000000e+00, %tmp652
   %one.sub.ac.i26 = fmul float %one.sub.a.i25, %.229
   %mul.i27 = fmul float %temp28.0, %.229
   %result.i28 = fadd float %mul.i27, %one.sub.ac.i26
-  %722 = call float @llvm.pow.f32(float %result.i28, float %76)
-  %723 = fmul float %722, %79
-  %724 = fadd float %723, %80
-  %725 = call float @llvm.AMDIL.clamp.(float %724, float 0.000000e+00, float 1.000000e+00)
-  %726 = fmul float %725, %725
-  %727 = fmul float 2.000000e+00, %725
-  %728 = fsub float -0.000000e+00, %727
-  %729 = fadd float 3.000000e+00, %728
-  %730 = fmul float %726, %729
-  %731 = fmul float %542, %730
-  %732 = fmul float %543, %730
-  %733 = fmul float %544, %730
-  %734 = fmul float %731, %509
-  %735 = fadd float %734, %527
-  %736 = fmul float %732, %509
-  %737 = fadd float %736, %528
-  %738 = fmul float %733, %509
-  %739 = fadd float %738, %529
-  %one.sub.a.i23 = fsub float 1.000000e+00, %230
-  %result.i24 = fadd float %284, %one.sub.a.i23
-  %one.sub.a.i21 = fsub float 1.000000e+00, %37
-  %result.i22 = fadd float %295, %one.sub.a.i21
-  %one.sub.a.i19 = fsub float 1.000000e+00, %37
-  %result.i20 = fadd float %296, %one.sub.a.i19
-  %one.sub.a.i17 = fsub float 1.000000e+00, %37
-  %result.i18 = fadd float %297, %one.sub.a.i17
-  %one.sub.a.i15 = fsub float 1.000000e+00, %38
+  %tmp721 = call float @llvm.pow.f32(float %result.i28, float %tmp75)
+  %tmp722 = fmul float %tmp721, %tmp78
+  %tmp723 = fadd float %tmp722, %tmp79
+  %tmp724 = call float @llvm.AMDIL.clamp.(float %tmp723, float 0.000000e+00, float 1.000000e+00)
+  %tmp725 = fmul float %tmp724, %tmp724
+  %tmp726 = fmul float 2.000000e+00, %tmp724
+  %tmp727 = fsub float -0.000000e+00, %tmp726
+  %tmp728 = fadd float 3.000000e+00, %tmp727
+  %tmp729 = fmul float %tmp725, %tmp728
+  %tmp730 = fmul float %tmp541, %tmp729
+  %tmp731 = fmul float %tmp542, %tmp729
+  %tmp732 = fmul float %tmp543, %tmp729
+  %tmp733 = fmul float %tmp730, %tmp508
+  %tmp734 = fadd float %tmp733, %tmp526
+  %tmp735 = fmul float %tmp731, %tmp508
+  %tmp736 = fadd float %tmp735, %tmp527
+  %tmp737 = fmul float %tmp732, %tmp508
+  %tmp738 = fadd float %tmp737, %tmp528
+  %one.sub.a.i23 = fsub float 1.000000e+00, %tmp229
+  %result.i24 = fadd float %tmp283, %one.sub.a.i23
+  %one.sub.a.i21 = fsub float 1.000000e+00, %tmp36
+  %result.i22 = fadd float %tmp294, %one.sub.a.i21
+  %one.sub.a.i19 = fsub float 1.000000e+00, %tmp36
+  %result.i20 = fadd float %tmp295, %one.sub.a.i19
+  %one.sub.a.i17 = fsub float 1.000000e+00, %tmp36
+  %result.i18 = fadd float %tmp296, %one.sub.a.i17
+  %one.sub.a.i15 = fsub float 1.000000e+00, %tmp37
   %result.i16 = fadd float %result.i24, %one.sub.a.i15
-  %740 = fmul float %result.i22, %result.i16
-  %741 = fmul float %result.i20, %result.i16
-  %742 = fmul float %result.i18, %result.i16
-  %743 = fmul float %735, %740
-  %744 = fmul float %737, %741
-  %745 = fmul float %739, %742
-  %746 = fmul float %temp12.0, %216
-  %747 = fmul float %temp13.0, %217
-  %748 = fadd float %747, %746
-  %749 = fmul float %temp14.0, %218
-  %750 = fadd float %748, %749
-  %751 = call float @fabs(float %750)
-  %752 = fmul float %751, %751
-  %753 = fmul float %752, %50
-  %754 = fadd float %753, %51
-  %755 = call float @llvm.AMDIL.clamp.(float %754, float 0.000000e+00, float 1.000000e+00)
-  %756 = fsub float -0.000000e+00, %755
-  %757 = fadd float 1.000000e+00, %756
-  %758 = fmul float %33, %757
-  %759 = fmul float %33, %757
-  %760 = fmul float %33, %757
-  %761 = fmul float %34, %757
-  %one.sub.a.i11 = fsub float 1.000000e+00, %758
-  %one.sub.ac.i12 = fmul float %one.sub.a.i11, %743
-  %mul.i13 = fmul float %31, %743
+  %tmp739 = fmul float %result.i22, %result.i16
+  %tmp740 = fmul float %result.i20, %result.i16
+  %tmp741 = fmul float %result.i18, %result.i16
+  %tmp742 = fmul float %tmp734, %tmp739
+  %tmp743 = fmul float %tmp736, %tmp740
+  %tmp744 = fmul float %tmp738, %tmp741
+  %tmp745 = fmul float %temp12.0, %tmp215
+  %tmp746 = fmul float %temp13.0, %tmp216
+  %tmp747 = fadd float %tmp746, %tmp745
+  %tmp748 = fmul float %temp14.0, %tmp217
+  %tmp749 = fadd float %tmp747, %tmp748
+  %tmp750 = call float @fabs(float %tmp749)
+  %tmp751 = fmul float %tmp750, %tmp750
+  %tmp752 = fmul float %tmp751, %tmp49
+  %tmp753 = fadd float %tmp752, %tmp50
+  %tmp754 = call float @llvm.AMDIL.clamp.(float %tmp753, float 0.000000e+00, float 1.000000e+00)
+  %tmp755 = fsub float -0.000000e+00, %tmp754
+  %tmp756 = fadd float 1.000000e+00, %tmp755
+  %tmp757 = fmul float %tmp32, %tmp756
+  %tmp758 = fmul float %tmp32, %tmp756
+  %tmp759 = fmul float %tmp32, %tmp756
+  %tmp760 = fmul float %tmp33, %tmp756
+  %one.sub.a.i11 = fsub float 1.000000e+00, %tmp757
+  %one.sub.ac.i12 = fmul float %one.sub.a.i11, %tmp742
+  %mul.i13 = fmul float %tmp30, %tmp742
   %result.i14 = fadd float %mul.i13, %one.sub.ac.i12
-  %one.sub.a.i7 = fsub float 1.000000e+00, %759
-  %one.sub.ac.i8 = fmul float %one.sub.a.i7, %744
-  %mul.i9 = fmul float %31, %744
+  %one.sub.a.i7 = fsub float 1.000000e+00, %tmp758
+  %one.sub.ac.i8 = fmul float %one.sub.a.i7, %tmp743
+  %mul.i9 = fmul float %tmp30, %tmp743
   %result.i10 = fadd float %mul.i9, %one.sub.ac.i8
-  %one.sub.a.i3 = fsub float 1.000000e+00, %760
-  %one.sub.ac.i4 = fmul float %one.sub.a.i3, %745
-  %mul.i5 = fmul float %31, %745
+  %one.sub.a.i3 = fsub float 1.000000e+00, %tmp759
+  %one.sub.ac.i4 = fmul float %one.sub.a.i3, %tmp744
+  %mul.i5 = fmul float %tmp30, %tmp744
   %result.i6 = fadd float %mul.i5, %one.sub.ac.i4
-  %one.sub.a.i1 = fsub float 1.000000e+00, %761
-  %one.sub.ac.i = fmul float %one.sub.a.i1, %368
-  %mul.i = fmul float %32, %368
+  %one.sub.a.i1 = fsub float 1.000000e+00, %tmp760
+  %one.sub.ac.i = fmul float %one.sub.a.i1, %tmp367
+  %mul.i = fmul float %tmp31, %tmp367
   %result.i2 = fadd float %mul.i, %one.sub.ac.i
-  %762 = fcmp uge float %result.i14, 0x3E6FFFFE60000000
-  %763 = select i1 %762, float %result.i14, float 0x3E6FFFFE60000000
-  %764 = fcmp uge float %result.i10, 0x3E6FFFFE60000000
-  %765 = select i1 %764, float %result.i10, float 0x3E6FFFFE60000000
-  %766 = fcmp uge float %result.i6, 0x3E6FFFFE60000000
-  %767 = select i1 %766, float %result.i6, float 0x3E6FFFFE60000000
-  %768 = fcmp uge float %763, 6.550400e+04
-  %769 = select i1 %768, float 6.550400e+04, float %763
-  %770 = fcmp uge float %765, 6.550400e+04
-  %771 = select i1 %770, float 6.550400e+04, float %765
-  %772 = fcmp uge float %767, 6.550400e+04
-  %773 = select i1 %772, float 6.550400e+04, float %767
-  %774 = fmul float %result.i2, %52
-  %775 = fadd float %774, %53
-  %776 = call float @llvm.AMDIL.clamp.(float %775, float 0.000000e+00, float 1.000000e+00)
-  %777 = call i32 @llvm.SI.packf16(float %769, float %771)
-  %778 = bitcast i32 %777 to float
-  %779 = call i32 @llvm.SI.packf16(float %773, float %776)
-  %780 = bitcast i32 %779 to float
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %778, float %780, float %778, float %780)
+  %tmp761 = fcmp uge float %result.i14, 0x3E6FFFFE60000000
+  %tmp762 = select i1 %tmp761, float %result.i14, float 0x3E6FFFFE60000000
+  %tmp763 = fcmp uge float %result.i10, 0x3E6FFFFE60000000
+  %tmp764 = select i1 %tmp763, float %result.i10, float 0x3E6FFFFE60000000
+  %tmp765 = fcmp uge float %result.i6, 0x3E6FFFFE60000000
+  %tmp766 = select i1 %tmp765, float %result.i6, float 0x3E6FFFFE60000000
+  %tmp767 = fcmp uge float %tmp762, 6.550400e+04
+  %tmp768 = select i1 %tmp767, float 6.550400e+04, float %tmp762
+  %tmp769 = fcmp uge float %tmp764, 6.550400e+04
+  %tmp770 = select i1 %tmp769, float 6.550400e+04, float %tmp764
+  %tmp771 = fcmp uge float %tmp766, 6.550400e+04
+  %tmp772 = select i1 %tmp771, float 6.550400e+04, float %tmp766
+  %tmp773 = fmul float %result.i2, %tmp51
+  %tmp774 = fadd float %tmp773, %tmp52
+  %tmp775 = call float @llvm.AMDIL.clamp.(float %tmp774, float 0.000000e+00, float 1.000000e+00)
+  %tmp776 = call i32 @llvm.SI.packf16(float %tmp768, float %tmp770)
+  %tmp777 = bitcast i32 %tmp776 to float
+  %tmp778 = call i32 @llvm.SI.packf16(float %tmp772, float %tmp775)
+  %tmp779 = bitcast i32 %tmp778 to float
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp777, float %tmp779, float %tmp777, float %tmp779)
   ret void
 
 ELSE214:                                          ; preds = %ELSE211
-  %781 = fcmp olt float %559, %81
-  %782 = sext i1 %781 to i32
-  %783 = bitcast i32 %782 to float
-  %784 = bitcast float %783 to i32
-  %785 = icmp ne i32 %784, 0
-  %.230 = select i1 %785, float %104, float %100
-  %.231 = select i1 %785, float %105, float %101
-  %.232 = select i1 %785, float %106, float %102
-  %.233 = select i1 %785, float %107, float %103
+  %tmp780 = fcmp olt float %tmp558, %tmp80
+  %tmp781 = sext i1 %tmp780 to i32
+  %tmp782 = bitcast i32 %tmp781 to float
+  %tmp783 = bitcast float %tmp782 to i32
+  %tmp784 = icmp ne i32 %tmp783, 0
+  %.230 = select i1 %tmp784, float %tmp103, float %tmp99
+  %.231 = select i1 %tmp784, float %tmp104, float %tmp100
+  %.232 = select i1 %tmp784, float %tmp105, float %tmp101
+  %.233 = select i1 %tmp784, float %tmp106, float %tmp102
   br label %ENDIF209
 }
 
 ; Function Attrs: readnone
-declare float @llvm.AMDIL.clamp.(float, float, float) #3
+declare float @llvm.AMDIL.clamp.(float, float, float) #1
 
 ; Function Attrs: nounwind readnone
 declare <4 x float> @llvm.SI.sample.v2i32(<2 x i32>, <32 x i8>, <16 x i8>, i32) #2
@@ -1554,7 +1555,7 @@ declare <4 x float> @llvm.SI.sample.v2i32(<2 x i32>, <32 x i8>, <16 x i8>, i32)
 declare <4 x float> @llvm.SI.samplel.v4i32(<4 x i32>, <32 x i8>, <16 x i8>, i32) #2
 
 ; Function Attrs: readnone
-declare float @llvm.AMDIL.exp.(float) #3
+declare float @llvm.AMDIL.exp.(float) #1
 
 ; Function Attrs: nounwind readnone
 declare float @llvm.SI.load.const(<16 x i8>, i32) #2
@@ -1563,10 +1564,10 @@ declare float @llvm.SI.load.const(<16 x i8>, i32) #2
 declare float @llvm.SI.fs.interp(i32, i32, i32, <2 x i32>) #2
 
 ; Function Attrs: readnone
-declare i32 @llvm.SI.tid() #3
+declare i32 @llvm.SI.tid() #1
 
 ; Function Attrs: nounwind readonly
-declare float @ceil(float) #4
+declare float @ceil(float) #3
 
 ; Function Attrs: nounwind readnone
 declare float @llvm.amdgcn.rsq.f32(float) #2
@@ -1575,10 +1576,10 @@ declare float @llvm.amdgcn.rsq.f32(float) #2
 declare <4 x float> @llvm.SI.sampled.v8i32(<8 x i32>, <32 x i8>, <16 x i8>, i32) #2
 
 ; Function Attrs: readnone
-declare <4 x float> @llvm.AMDGPU.cube(<4 x float>) #3
+declare <4 x float> @llvm.AMDGPU.cube(<4 x float>) #1
 
 ; Function Attrs: readnone
-declare float @fabs(float) #3
+declare float @fabs(float) #1
 
 ; Function Attrs: nounwind readnone
 declare <4 x float> @llvm.SI.sample.v4i32(<4 x i32>, <32 x i8>, <16 x i8>, i32) #2
@@ -1591,13 +1592,10 @@ declare i32 @llvm.SI.packf16(float, float) #2
 
 declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float)
 
-
-
-attributes #0 = { alwaysinline nounwind readnone }
-attributes #1 = { "ShaderType"="0" }
+attributes #0 = { "ShaderType"="0" }
+attributes #1 = { readnone }
 attributes #2 = { nounwind readnone }
-attributes #3 = { readnone }
-attributes #4 = { nounwind readonly }
+attributes #3 = { nounwind readonly }
 
 !0 = !{!1, !1, i64 0, i32 1}
 !1 = !{!"const", null}