[llvm] r258613 - AMDGPU: Run instnamer on a few tests
Matt Arsenault via llvm-commits
llvm-commits at lists.llvm.org
Fri Jan 22 21:42:43 PST 2016
Author: arsenm
Date: Fri Jan 22 23:42:43 2016
New Revision: 258613
URL: http://llvm.org/viewvc/llvm-project?rev=258613&view=rev
Log:
AMDGPU: Run instnamer on a few tests
This will make future test updates easier
Modified:
llvm/trunk/test/CodeGen/AMDGPU/sgpr-copy.ll
llvm/trunk/test/CodeGen/AMDGPU/si-lod-bias.ll
llvm/trunk/test/CodeGen/AMDGPU/si-scheduler.ll
llvm/trunk/test/CodeGen/AMDGPU/si-sgpr-spill.ll
Modified: llvm/trunk/test/CodeGen/AMDGPU/sgpr-copy.ll
URL: http://llvm.org/viewvc/llvm-project/llvm/trunk/test/CodeGen/AMDGPU/sgpr-copy.ll?rev=258613&r1=258612&r2=258613&view=diff
==============================================================================
--- llvm/trunk/test/CodeGen/AMDGPU/sgpr-copy.ll (original)
+++ llvm/trunk/test/CodeGen/AMDGPU/sgpr-copy.ll Fri Jan 22 23:42:43 2016
@@ -3,189 +3,188 @@
; This test checks that no VGPR to SGPR copies are created by the register
; allocator.
+
; CHECK-LABEL: {{^}}phi1:
; CHECK: s_buffer_load_dword [[DST:s[0-9]]], {{s\[[0-9]+:[0-9]+\]}}, 0x0
; CHECK: v_mov_b32_e32 v{{[0-9]}}, [[DST]]
-
-define void @phi1(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @phi1(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 {
main_body:
- %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0
- %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1
- %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 0)
- %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16)
- %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 32)
- %25 = fptosi float %23 to i32
- %26 = icmp ne i32 %25, 0
- br i1 %26, label %ENDIF, label %ELSE
+ %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0
+ %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+ %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 0)
+ %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16)
+ %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 32)
+ %tmp24 = fptosi float %tmp22 to i32
+ %tmp25 = icmp ne i32 %tmp24, 0
+ br i1 %tmp25, label %ENDIF, label %ELSE
ELSE: ; preds = %main_body
- %27 = fsub float -0.000000e+00, %22
+ %tmp26 = fsub float -0.000000e+00, %tmp21
br label %ENDIF
-ENDIF: ; preds = %main_body, %ELSE
- %temp.0 = phi float [ %27, %ELSE ], [ %22, %main_body ]
- %28 = fadd float %temp.0, %24
- call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %28, float %28, float 0.000000e+00, float 1.000000e+00)
+ENDIF: ; preds = %ELSE, %main_body
+ %temp.0 = phi float [ %tmp26, %ELSE ], [ %tmp21, %main_body ]
+ %tmp27 = fadd float %temp.0, %tmp23
+ call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %tmp27, float %tmp27, float 0.000000e+00, float 1.000000e+00)
ret void
}
; Make sure this program doesn't crash
; CHECK-LABEL: {{^}}phi2:
-define void @phi2(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @phi2(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 {
main_body:
- %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0
- %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1
- %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16)
- %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 32)
- %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 36)
- %25 = call float @llvm.SI.load.const(<16 x i8> %21, i32 40)
- %26 = call float @llvm.SI.load.const(<16 x i8> %21, i32 48)
- %27 = call float @llvm.SI.load.const(<16 x i8> %21, i32 52)
- %28 = call float @llvm.SI.load.const(<16 x i8> %21, i32 56)
- %29 = call float @llvm.SI.load.const(<16 x i8> %21, i32 64)
- %30 = call float @llvm.SI.load.const(<16 x i8> %21, i32 68)
- %31 = call float @llvm.SI.load.const(<16 x i8> %21, i32 72)
- %32 = call float @llvm.SI.load.const(<16 x i8> %21, i32 76)
- %33 = call float @llvm.SI.load.const(<16 x i8> %21, i32 80)
- %34 = call float @llvm.SI.load.const(<16 x i8> %21, i32 84)
- %35 = call float @llvm.SI.load.const(<16 x i8> %21, i32 88)
- %36 = call float @llvm.SI.load.const(<16 x i8> %21, i32 92)
- %37 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %2, i32 0
- %38 = load <32 x i8>, <32 x i8> addrspace(2)* %37, !tbaa !1
- %39 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %1, i32 0
- %40 = load <16 x i8>, <16 x i8> addrspace(2)* %39, !tbaa !1
- %41 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %3, <2 x i32> %5)
- %42 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %3, <2 x i32> %5)
- %43 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %3, <2 x i32> %5)
- %44 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %3, <2 x i32> %5)
- %45 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %3, <2 x i32> %5)
- %46 = bitcast float %41 to i32
- %47 = bitcast float %42 to i32
- %48 = insertelement <2 x i32> undef, i32 %46, i32 0
- %49 = insertelement <2 x i32> %48, i32 %47, i32 1
- %50 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %49, <32 x i8> %38, <16 x i8> %40, i32 2)
- %51 = extractelement <4 x float> %50, i32 2
- %52 = call float @fabs(float %51)
- %53 = fmul float %43, %43
- %54 = fmul float %44, %44
- %55 = fadd float %54, %53
- %56 = fmul float %45, %45
- %57 = fadd float %55, %56
- %58 = call float @llvm.amdgcn.rsq.f32(float %57)
- %59 = fmul float %43, %58
- %60 = fmul float %44, %58
- %61 = fmul float %45, %58
- %62 = fmul float %59, %23
- %63 = fmul float %60, %24
- %64 = fadd float %63, %62
- %65 = fmul float %61, %25
- %66 = fadd float %64, %65
- %67 = fsub float -0.000000e+00, %26
- %68 = fmul float %66, %52
- %69 = fadd float %68, %67
- %70 = fmul float %27, %69
- %71 = fmul float %28, %69
- %72 = call float @fabs(float %70)
- %73 = fcmp olt float 0x3EE4F8B580000000, %72
- %74 = sext i1 %73 to i32
- %75 = bitcast i32 %74 to float
- %76 = bitcast float %75 to i32
- %77 = icmp ne i32 %76, 0
- br i1 %77, label %IF, label %ENDIF
+ %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0
+ %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+ %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16)
+ %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 32)
+ %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 36)
+ %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 40)
+ %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 48)
+ %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 52)
+ %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 56)
+ %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 64)
+ %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 68)
+ %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 72)
+ %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 76)
+ %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 80)
+ %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 84)
+ %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 88)
+ %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 92)
+ %tmp36 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %arg2, i32 0
+ %tmp37 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp36, !tbaa !0
+ %tmp38 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg1, i32 0
+ %tmp39 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp38, !tbaa !0
+ %tmp40 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg3, <2 x i32> %arg5)
+ %tmp41 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg3, <2 x i32> %arg5)
+ %tmp42 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg3, <2 x i32> %arg5)
+ %tmp43 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg3, <2 x i32> %arg5)
+ %tmp44 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg3, <2 x i32> %arg5)
+ %tmp45 = bitcast float %tmp40 to i32
+ %tmp46 = bitcast float %tmp41 to i32
+ %tmp47 = insertelement <2 x i32> undef, i32 %tmp45, i32 0
+ %tmp48 = insertelement <2 x i32> %tmp47, i32 %tmp46, i32 1
+ %tmp49 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp48, <32 x i8> %tmp37, <16 x i8> %tmp39, i32 2)
+ %tmp50 = extractelement <4 x float> %tmp49, i32 2
+ %tmp51 = call float @fabs(float %tmp50)
+ %tmp52 = fmul float %tmp42, %tmp42
+ %tmp53 = fmul float %tmp43, %tmp43
+ %tmp54 = fadd float %tmp53, %tmp52
+ %tmp55 = fmul float %tmp44, %tmp44
+ %tmp56 = fadd float %tmp54, %tmp55
+ %tmp57 = call float @llvm.amdgcn.rsq.f32(float %tmp56)
+ %tmp58 = fmul float %tmp42, %tmp57
+ %tmp59 = fmul float %tmp43, %tmp57
+ %tmp60 = fmul float %tmp44, %tmp57
+ %tmp61 = fmul float %tmp58, %tmp22
+ %tmp62 = fmul float %tmp59, %tmp23
+ %tmp63 = fadd float %tmp62, %tmp61
+ %tmp64 = fmul float %tmp60, %tmp24
+ %tmp65 = fadd float %tmp63, %tmp64
+ %tmp66 = fsub float -0.000000e+00, %tmp25
+ %tmp67 = fmul float %tmp65, %tmp51
+ %tmp68 = fadd float %tmp67, %tmp66
+ %tmp69 = fmul float %tmp26, %tmp68
+ %tmp70 = fmul float %tmp27, %tmp68
+ %tmp71 = call float @fabs(float %tmp69)
+ %tmp72 = fcmp olt float 0x3EE4F8B580000000, %tmp71
+ %tmp73 = sext i1 %tmp72 to i32
+ %tmp74 = bitcast i32 %tmp73 to float
+ %tmp75 = bitcast float %tmp74 to i32
+ %tmp76 = icmp ne i32 %tmp75, 0
+ br i1 %tmp76, label %IF, label %ENDIF
IF: ; preds = %main_body
- %78 = fsub float -0.000000e+00, %70
- %79 = call float @llvm.AMDIL.exp.(float %78)
- %80 = fsub float -0.000000e+00, %79
- %81 = fadd float 1.000000e+00, %80
- %82 = fdiv float 1.000000e+00, %70
- %83 = fmul float %81, %82
- %84 = fmul float %32, %83
+ %tmp77 = fsub float -0.000000e+00, %tmp69
+ %tmp78 = call float @llvm.AMDIL.exp.(float %tmp77)
+ %tmp79 = fsub float -0.000000e+00, %tmp78
+ %tmp80 = fadd float 1.000000e+00, %tmp79
+ %tmp81 = fdiv float 1.000000e+00, %tmp69
+ %tmp82 = fmul float %tmp80, %tmp81
+ %tmp83 = fmul float %tmp31, %tmp82
br label %ENDIF
-ENDIF: ; preds = %main_body, %IF
- %temp4.0 = phi float [ %84, %IF ], [ %32, %main_body ]
- %85 = call float @fabs(float %71)
- %86 = fcmp olt float 0x3EE4F8B580000000, %85
- %87 = sext i1 %86 to i32
- %88 = bitcast i32 %87 to float
- %89 = bitcast float %88 to i32
- %90 = icmp ne i32 %89, 0
- br i1 %90, label %IF25, label %ENDIF24
+ENDIF: ; preds = %IF, %main_body
+ %temp4.0 = phi float [ %tmp83, %IF ], [ %tmp31, %main_body ]
+ %tmp84 = call float @fabs(float %tmp70)
+ %tmp85 = fcmp olt float 0x3EE4F8B580000000, %tmp84
+ %tmp86 = sext i1 %tmp85 to i32
+ %tmp87 = bitcast i32 %tmp86 to float
+ %tmp88 = bitcast float %tmp87 to i32
+ %tmp89 = icmp ne i32 %tmp88, 0
+ br i1 %tmp89, label %IF25, label %ENDIF24
IF25: ; preds = %ENDIF
- %91 = fsub float -0.000000e+00, %71
- %92 = call float @llvm.AMDIL.exp.(float %91)
- %93 = fsub float -0.000000e+00, %92
- %94 = fadd float 1.000000e+00, %93
- %95 = fdiv float 1.000000e+00, %71
- %96 = fmul float %94, %95
- %97 = fmul float %36, %96
+ %tmp90 = fsub float -0.000000e+00, %tmp70
+ %tmp91 = call float @llvm.AMDIL.exp.(float %tmp90)
+ %tmp92 = fsub float -0.000000e+00, %tmp91
+ %tmp93 = fadd float 1.000000e+00, %tmp92
+ %tmp94 = fdiv float 1.000000e+00, %tmp70
+ %tmp95 = fmul float %tmp93, %tmp94
+ %tmp96 = fmul float %tmp35, %tmp95
br label %ENDIF24
-ENDIF24: ; preds = %ENDIF, %IF25
- %temp8.0 = phi float [ %97, %IF25 ], [ %36, %ENDIF ]
- %98 = fmul float %29, %temp4.0
- %99 = fmul float %30, %temp4.0
- %100 = fmul float %31, %temp4.0
- %101 = fmul float %33, %temp8.0
- %102 = fadd float %101, %98
- %103 = fmul float %34, %temp8.0
- %104 = fadd float %103, %99
- %105 = fmul float %35, %temp8.0
- %106 = fadd float %105, %100
- %107 = call float @llvm.pow.f32(float %52, float %22)
- %108 = fsub float -0.000000e+00, %102
- %109 = fmul float %108, %107
- %110 = fsub float -0.000000e+00, %104
- %111 = fmul float %110, %107
- %112 = fsub float -0.000000e+00, %106
- %113 = fmul float %112, %107
- %114 = call i32 @llvm.SI.packf16(float %109, float %111)
- %115 = bitcast i32 %114 to float
- %116 = call i32 @llvm.SI.packf16(float %113, float 1.000000e+00)
- %117 = bitcast i32 %116 to float
- call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %115, float %117, float %115, float %117)
+ENDIF24: ; preds = %IF25, %ENDIF
+ %temp8.0 = phi float [ %tmp96, %IF25 ], [ %tmp35, %ENDIF ]
+ %tmp97 = fmul float %tmp28, %temp4.0
+ %tmp98 = fmul float %tmp29, %temp4.0
+ %tmp99 = fmul float %tmp30, %temp4.0
+ %tmp100 = fmul float %tmp32, %temp8.0
+ %tmp101 = fadd float %tmp100, %tmp97
+ %tmp102 = fmul float %tmp33, %temp8.0
+ %tmp103 = fadd float %tmp102, %tmp98
+ %tmp104 = fmul float %tmp34, %temp8.0
+ %tmp105 = fadd float %tmp104, %tmp99
+ %tmp106 = call float @llvm.pow.f32(float %tmp51, float %tmp21)
+ %tmp107 = fsub float -0.000000e+00, %tmp101
+ %tmp108 = fmul float %tmp107, %tmp106
+ %tmp109 = fsub float -0.000000e+00, %tmp103
+ %tmp110 = fmul float %tmp109, %tmp106
+ %tmp111 = fsub float -0.000000e+00, %tmp105
+ %tmp112 = fmul float %tmp111, %tmp106
+ %tmp113 = call i32 @llvm.SI.packf16(float %tmp108, float %tmp110)
+ %tmp114 = bitcast i32 %tmp113 to float
+ %tmp115 = call i32 @llvm.SI.packf16(float %tmp112, float 1.000000e+00)
+ %tmp116 = bitcast i32 %tmp115 to float
+ call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp114, float %tmp116, float %tmp114, float %tmp116)
ret void
}
; We just want ot make sure the program doesn't crash
; CHECK-LABEL: {{^}}loop:
-
-define void @loop(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @loop(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 {
main_body:
- %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0
- %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1
- %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 0)
- %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 4)
- %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 8)
- %25 = call float @llvm.SI.load.const(<16 x i8> %21, i32 12)
- %26 = fptosi float %25 to i32
- %27 = bitcast i32 %26 to float
- %28 = bitcast float %27 to i32
+ %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0
+ %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+ %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 0)
+ %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 4)
+ %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 8)
+ %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 12)
+ %tmp25 = fptosi float %tmp24 to i32
+ %tmp26 = bitcast i32 %tmp25 to float
+ %tmp27 = bitcast float %tmp26 to i32
br label %LOOP
LOOP: ; preds = %ENDIF, %main_body
- %temp4.0 = phi float [ %22, %main_body ], [ %temp5.0, %ENDIF ]
- %temp5.0 = phi float [ %23, %main_body ], [ %temp6.0, %ENDIF ]
- %temp6.0 = phi float [ %24, %main_body ], [ %temp4.0, %ENDIF ]
- %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %37, %ENDIF ]
- %29 = bitcast float %temp8.0 to i32
- %30 = icmp sge i32 %29, %28
- %31 = sext i1 %30 to i32
- %32 = bitcast i32 %31 to float
- %33 = bitcast float %32 to i32
- %34 = icmp ne i32 %33, 0
- br i1 %34, label %IF, label %ENDIF
+ %temp4.0 = phi float [ %tmp21, %main_body ], [ %temp5.0, %ENDIF ]
+ %temp5.0 = phi float [ %tmp22, %main_body ], [ %temp6.0, %ENDIF ]
+ %temp6.0 = phi float [ %tmp23, %main_body ], [ %temp4.0, %ENDIF ]
+ %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %tmp36, %ENDIF ]
+ %tmp28 = bitcast float %temp8.0 to i32
+ %tmp29 = icmp sge i32 %tmp28, %tmp27
+ %tmp30 = sext i1 %tmp29 to i32
+ %tmp31 = bitcast i32 %tmp30 to float
+ %tmp32 = bitcast float %tmp31 to i32
+ %tmp33 = icmp ne i32 %tmp32, 0
+ br i1 %tmp33, label %IF, label %ENDIF
IF: ; preds = %LOOP
call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp4.0, float %temp5.0, float %temp6.0, float 1.000000e+00)
ret void
ENDIF: ; preds = %LOOP
- %35 = bitcast float %temp8.0 to i32
- %36 = add i32 %35, 1
- %37 = bitcast i32 %36 to float
+ %tmp34 = bitcast float %temp8.0 to i32
+ %tmp35 = add i32 %tmp34, 1
+ %tmp36 = bitcast i32 %tmp35 to float
br label %LOOP
}
@@ -197,15 +196,6 @@ declare float @fabs(float) #2
declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float)
-attributes #0 = { "ShaderType"="0" }
-attributes #1 = { nounwind readnone }
-attributes #2 = { readonly }
-attributes #3 = { readnone }
-attributes #4 = { nounwind readonly }
-
-!0 = !{!"const", null}
-!1 = !{!0, !0, i64 0, i32 1}
-
; Function Attrs: nounwind readnone
declare float @llvm.SI.fs.interp(i32, i32, i32, <2 x i32>) #1
@@ -218,8 +208,8 @@ declare float @llvm.amdgcn.rsq.f32(float
; Function Attrs: readnone
declare float @llvm.AMDIL.exp.(float) #3
-; Function Attrs: nounwind readonly
-declare float @llvm.pow.f32(float, float) #4
+; Function Attrs: nounwind readnone
+declare float @llvm.pow.f32(float, float) #1
; Function Attrs: nounwind readnone
declare i32 @llvm.SI.packf16(float, float) #1
@@ -233,99 +223,93 @@ declare i32 @llvm.SI.packf16(float, floa
; CHECK: image_sample
; CHECK: exp
; CHECK: s_endpgm
-define void @sample_v3([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
-
+define void @sample_v3([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
entry:
- %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0
- %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !2
- %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 16)
- %24 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0
- %25 = load <32 x i8>, <32 x i8> addrspace(2)* %24, !tbaa !2
- %26 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0
- %27 = load <16 x i8>, <16 x i8> addrspace(2)* %26, !tbaa !2
- %28 = fcmp oeq float %23, 0.0
- br i1 %28, label %if, label %else
+ %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0
+ %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+ %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 16)
+ %tmp23 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0
+ %tmp24 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp23, !tbaa !0
+ %tmp25 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0
+ %tmp26 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp25, !tbaa !0
+ %tmp27 = fcmp oeq float %tmp22, 0.000000e+00
+ br i1 %tmp27, label %if, label %else
-if:
- %val.if = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> <i32 0, i32 0>, <32 x i8> %25, <16 x i8> %27, i32 2)
+if: ; preds = %entry
+ %val.if = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> zeroinitializer, <32 x i8> %tmp24, <16 x i8> %tmp26, i32 2)
%val.if.0 = extractelement <4 x float> %val.if, i32 0
%val.if.1 = extractelement <4 x float> %val.if, i32 1
%val.if.2 = extractelement <4 x float> %val.if, i32 2
br label %endif
-else:
- %val.else = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> <i32 1, i32 0>, <32 x i8> %25, <16 x i8> %27, i32 2)
+else: ; preds = %entry
+ %val.else = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> <i32 1, i32 0>, <32 x i8> %tmp24, <16 x i8> %tmp26, i32 2)
%val.else.0 = extractelement <4 x float> %val.else, i32 0
%val.else.1 = extractelement <4 x float> %val.else, i32 1
%val.else.2 = extractelement <4 x float> %val.else, i32 2
br label %endif
-endif:
- %val.0 = phi float [%val.if.0, %if], [%val.else.0, %else]
- %val.1 = phi float [%val.if.1, %if], [%val.else.1, %else]
- %val.2 = phi float [%val.if.2, %if], [%val.else.2, %else]
- call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %val.0, float %val.1, float %val.2, float 0.0)
+endif: ; preds = %else, %if
+ %val.0 = phi float [ %val.if.0, %if ], [ %val.else.0, %else ]
+ %val.1 = phi float [ %val.if.1, %if ], [ %val.else.1, %else ]
+ %val.2 = phi float [ %val.if.2, %if ], [ %val.else.2, %else ]
+ call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %val.0, float %val.1, float %val.2, float 0.000000e+00)
ret void
}
-!2 = !{!"const", null, i32 1}
-
; CHECK-LABEL: {{^}}copy1:
; CHECK: buffer_load_dword
; CHECK: v_add
; CHECK: s_endpgm
define void @copy1(float addrspace(1)* %out, float addrspace(1)* %in0) {
entry:
- %0 = load float, float addrspace(1)* %in0
- %1 = fcmp oeq float %0, 0.0
- br i1 %1, label %if0, label %endif
-
-if0:
- %2 = bitcast float %0 to i32
- %3 = fcmp olt float %0, 0.0
- br i1 %3, label %if1, label %endif
+ %tmp = load float, float addrspace(1)* %in0
+ %tmp1 = fcmp oeq float %tmp, 0.000000e+00
+ br i1 %tmp1, label %if0, label %endif
+
+if0: ; preds = %entry
+ %tmp2 = bitcast float %tmp to i32
+ %tmp3 = fcmp olt float %tmp, 0.000000e+00
+ br i1 %tmp3, label %if1, label %endif
-if1:
- %4 = add i32 %2, 1
+if1: ; preds = %if0
+ %tmp4 = add i32 %tmp2, 1
br label %endif
-endif:
- %5 = phi i32 [ 0, %entry ], [ %2, %if0 ], [ %4, %if1 ]
- %6 = bitcast i32 %5 to float
- store float %6, float addrspace(1)* %out
+endif: ; preds = %if1, %if0, %entry
+ %tmp5 = phi i32 [ 0, %entry ], [ %tmp2, %if0 ], [ %tmp4, %if1 ]
+ %tmp6 = bitcast i32 %tmp5 to float
+ store float %tmp6, float addrspace(1)* %out
ret void
}
; This test is just checking that we don't crash / assertion fail.
; CHECK-LABEL: {{^}}copy2:
; CHECK: s_endpgm
-
-define void @copy2([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @copy2([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
entry:
br label %LOOP68
-LOOP68:
+LOOP68: ; preds = %ENDIF69, %entry
%temp4.7 = phi float [ 0.000000e+00, %entry ], [ %v, %ENDIF69 ]
%t = phi i32 [ 20, %entry ], [ %x, %ENDIF69 ]
%g = icmp eq i32 0, %t
%l = bitcast float %temp4.7 to i32
br i1 %g, label %IF70, label %ENDIF69
-IF70:
+IF70: ; preds = %LOOP68
%q = icmp ne i32 %l, 13
%temp.8 = select i1 %q, float 1.000000e+00, float 0.000000e+00
call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp.8, float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
ret void
-ENDIF69:
+ENDIF69: ; preds = %LOOP68
%u = add i32 %l, %t
%v = bitcast i32 %u to float
%x = add i32 %t, -1
br label %LOOP68
}
-attributes #0 = { "ShaderType"="0" }
-
; This test checks that image_sample resource descriptors aren't loaded into
; vgprs. The verifier will fail if this happens.
; CHECK-LABEL:{{^}}sample_rsrc:
@@ -335,12 +319,12 @@ attributes #0 = { "ShaderType"="0" }
define void @sample_rsrc([6 x <16 x i8>] addrspace(2)* byval %arg, [17 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <4 x i32>] addrspace(2)* byval %arg2, [32 x <8 x i32>] addrspace(2)* byval %arg3, float inreg %arg4, i32 inreg %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <2 x i32> %arg8, <3 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, <2 x i32> %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, i32 %arg19, float %arg20, float %arg21) #0 {
bb:
%tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg1, i32 0, i32 0
- %tmp22 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+ %tmp22 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !2
%tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp22, i32 16)
%tmp25 = getelementptr [32 x <8 x i32>], [32 x <8 x i32>] addrspace(2)* %arg3, i32 0, i32 0
- %tmp26 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp25, !tbaa !0
+ %tmp26 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp25, !tbaa !2
%tmp27 = getelementptr [16 x <4 x i32>], [16 x <4 x i32>] addrspace(2)* %arg2, i32 0, i32 0
- %tmp28 = load <4 x i32>, <4 x i32> addrspace(2)* %tmp27, !tbaa !0
+ %tmp28 = load <4 x i32>, <4 x i32> addrspace(2)* %tmp27, !tbaa !2
%tmp29 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg5, <2 x i32> %arg7)
%tmp30 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg5, <2 x i32> %arg7)
%tmp31 = bitcast float %tmp23 to i32
@@ -377,3 +361,9 @@ bb71:
attributes #0 = { "ShaderType"="0" "unsafe-fp-math"="true" }
attributes #1 = { nounwind readnone }
+attributes #2 = { readonly }
+attributes #3 = { readnone }
+
+!0 = !{!1, !1, i64 0, i32 1}
+!1 = !{!"const", null}
+!2 = !{!1, !1, i64 0}
Modified: llvm/trunk/test/CodeGen/AMDGPU/si-lod-bias.ll
URL: http://llvm.org/viewvc/llvm-project/llvm/trunk/test/CodeGen/AMDGPU/si-lod-bias.ll?rev=258613&r1=258612&r2=258613&view=diff
==============================================================================
--- llvm/trunk/test/CodeGen/AMDGPU/si-lod-bias.ll (original)
+++ llvm/trunk/test/CodeGen/AMDGPU/si-lod-bias.ll Fri Jan 22 23:42:43 2016
@@ -6,31 +6,30 @@
; CHECK: {{^}}main:
; CHECK: image_sample_b v{{\[[0-9]:[0-9]\]}}, 15, 0, 0, 0, 0, 0, 0, 0, v{{\[[0-9]:[0-9]\]}}
-
-define void @main(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @main(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 {
main_body:
- %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0
- %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1
- %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16)
- %23 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %2, i32 0
- %24 = load <32 x i8>, <32 x i8> addrspace(2)* %23, !tbaa !1
- %25 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %1, i32 0
- %26 = load <16 x i8>, <16 x i8> addrspace(2)* %25, !tbaa !1
- %27 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %3, <2 x i32> %5)
- %28 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %3, <2 x i32> %5)
- %29 = bitcast float %22 to i32
- %30 = bitcast float %27 to i32
- %31 = bitcast float %28 to i32
- %32 = insertelement <4 x i32> undef, i32 %29, i32 0
- %33 = insertelement <4 x i32> %32, i32 %30, i32 1
- %34 = insertelement <4 x i32> %33, i32 %31, i32 2
- %35 = insertelement <4 x i32> %34, i32 undef, i32 3
- %36 = call <4 x float> @llvm.SI.sampleb.v4i32(<4 x i32> %35, <32 x i8> %24, <16 x i8> %26, i32 2)
- %37 = extractelement <4 x float> %36, i32 0
- %38 = extractelement <4 x float> %36, i32 1
- %39 = extractelement <4 x float> %36, i32 2
- %40 = extractelement <4 x float> %36, i32 3
- call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %37, float %38, float %39, float %40)
+ %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0
+ %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+ %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16)
+ %tmp22 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %arg2, i32 0
+ %tmp23 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp22, !tbaa !0
+ %tmp24 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg1, i32 0
+ %tmp25 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp24, !tbaa !0
+ %tmp26 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg3, <2 x i32> %arg5)
+ %tmp27 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg3, <2 x i32> %arg5)
+ %tmp28 = bitcast float %tmp21 to i32
+ %tmp29 = bitcast float %tmp26 to i32
+ %tmp30 = bitcast float %tmp27 to i32
+ %tmp31 = insertelement <4 x i32> undef, i32 %tmp28, i32 0
+ %tmp32 = insertelement <4 x i32> %tmp31, i32 %tmp29, i32 1
+ %tmp33 = insertelement <4 x i32> %tmp32, i32 %tmp30, i32 2
+ %tmp34 = insertelement <4 x i32> %tmp33, i32 undef, i32 3
+ %tmp35 = call <4 x float> @llvm.SI.sampleb.v4i32(<4 x i32> %tmp34, <32 x i8> %tmp23, <16 x i8> %tmp25, i32 2)
+ %tmp36 = extractelement <4 x float> %tmp35, i32 0
+ %tmp37 = extractelement <4 x float> %tmp35, i32 1
+ %tmp38 = extractelement <4 x float> %tmp35, i32 2
+ %tmp39 = extractelement <4 x float> %tmp35, i32 3
+ call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %tmp36, float %tmp37, float %tmp38, float %tmp39)
ret void
}
@@ -48,5 +47,5 @@ declare void @llvm.SI.export(i32, i32, i
attributes #0 = { "ShaderType"="0" }
attributes #1 = { nounwind readnone }
-!0 = !{!"const", null}
-!1 = !{!0, !0, i64 0, i32 1}
+!0 = !{!1, !1, i64 0, i32 1}
+!1 = !{!"const", null}
Modified: llvm/trunk/test/CodeGen/AMDGPU/si-scheduler.ll
URL: http://llvm.org/viewvc/llvm-project/llvm/trunk/test/CodeGen/AMDGPU/si-scheduler.ll?rev=258613&r1=258612&r2=258613&view=diff
==============================================================================
--- llvm/trunk/test/CodeGen/AMDGPU/si-scheduler.ll (original)
+++ llvm/trunk/test/CodeGen/AMDGPU/si-scheduler.ll Fri Jan 22 23:42:43 2016
@@ -11,30 +11,28 @@
; CHECK: s_waitcnt vmcnt(0)
; CHECK: exp
; CHECK: s_endpgm
-
-define void @main([6 x <16 x i8>] addrspace(2)* byval, [17 x <16 x i8>] addrspace(2)* byval, [17 x <4 x i32>] addrspace(2)* byval, [34 x <8 x i32>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>,
-<2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, i32, float, float) #0 {
+define void @main([6 x <16 x i8>] addrspace(2)* byval %arg, [17 x <16 x i8>] addrspace(2)* byval %arg1, [17 x <4 x i32>] addrspace(2)* byval %arg2, [34 x <8 x i32>] addrspace(2)* byval %arg3, float inreg %arg4, i32 inreg %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <2 x i32> %arg8, <3 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, <2 x i32> %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, i32 %arg19, float %arg20, float %arg21) #0 {
main_body:
- %22 = bitcast [34 x <8 x i32>] addrspace(2)* %3 to <32 x i8> addrspace(2)*
- %23 = load <32 x i8>, <32 x i8> addrspace(2)* %22, align 32, !tbaa !0
- %24 = bitcast [17 x <4 x i32>] addrspace(2)* %2 to <16 x i8> addrspace(2)*
- %25 = load <16 x i8>, <16 x i8> addrspace(2)* %24, align 16, !tbaa !0
- %26 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %5, <2 x i32> %11)
- %27 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %5, <2 x i32> %11)
- %28 = bitcast float %26 to i32
- %29 = bitcast float %27 to i32
- %30 = insertelement <2 x i32> undef, i32 %28, i32 0
- %31 = insertelement <2 x i32> %30, i32 %29, i32 1
- %32 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %31, <32 x i8> %23, <16 x i8> %25, i32 2)
- %33 = extractelement <4 x float> %32, i32 0
- %34 = extractelement <4 x float> %32, i32 1
- %35 = extractelement <4 x float> %32, i32 2
- %36 = extractelement <4 x float> %32, i32 3
- %37 = call i32 @llvm.SI.packf16(float %33, float %34)
- %38 = bitcast i32 %37 to float
- %39 = call i32 @llvm.SI.packf16(float %35, float %36)
- %40 = bitcast i32 %39 to float
- call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %38, float %40, float %38, float %40)
+ %tmp = bitcast [34 x <8 x i32>] addrspace(2)* %arg3 to <32 x i8> addrspace(2)*
+ %tmp22 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp, align 32, !tbaa !0
+ %tmp23 = bitcast [17 x <4 x i32>] addrspace(2)* %arg2 to <16 x i8> addrspace(2)*
+ %tmp24 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp23, align 16, !tbaa !0
+ %tmp25 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg5, <2 x i32> %arg11)
+ %tmp26 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg5, <2 x i32> %arg11)
+ %tmp27 = bitcast float %tmp25 to i32
+ %tmp28 = bitcast float %tmp26 to i32
+ %tmp29 = insertelement <2 x i32> undef, i32 %tmp27, i32 0
+ %tmp30 = insertelement <2 x i32> %tmp29, i32 %tmp28, i32 1
+ %tmp31 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp30, <32 x i8> %tmp22, <16 x i8> %tmp24, i32 2)
+ %tmp32 = extractelement <4 x float> %tmp31, i32 0
+ %tmp33 = extractelement <4 x float> %tmp31, i32 1
+ %tmp34 = extractelement <4 x float> %tmp31, i32 2
+ %tmp35 = extractelement <4 x float> %tmp31, i32 3
+ %tmp36 = call i32 @llvm.SI.packf16(float %tmp32, float %tmp33)
+ %tmp37 = bitcast i32 %tmp36 to float
+ %tmp38 = call i32 @llvm.SI.packf16(float %tmp34, float %tmp35)
+ %tmp39 = bitcast i32 %tmp38 to float
+ call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp37, float %tmp39, float %tmp37, float %tmp39)
ret void
}
@@ -52,4 +50,5 @@ declare void @llvm.SI.export(i32, i32, i
attributes #0 = { "ShaderType"="0" "enable-no-nans-fp-math"="true" }
attributes #1 = { nounwind readnone }
-!0 = !{!"const", null, i32 1}
+!0 = !{!1, !1, i64 0, i32 1}
+!1 = !{!"const", null}
Modified: llvm/trunk/test/CodeGen/AMDGPU/si-sgpr-spill.ll
URL: http://llvm.org/viewvc/llvm-project/llvm/trunk/test/CodeGen/AMDGPU/si-sgpr-spill.ll?rev=258613&r1=258612&r2=258613&view=diff
==============================================================================
--- llvm/trunk/test/CodeGen/AMDGPU/si-sgpr-spill.ll (original)
+++ llvm/trunk/test/CodeGen/AMDGPU/si-sgpr-spill.ll Fri Jan 22 23:42:43 2016
@@ -4,6 +4,7 @@
; These tests check that the compiler won't crash when it needs to spill
; SGPRs.
+
@ddxy_lds = external addrspace(3) global [64 x i32]
; CHECK-LABEL: {{^}}main:
@@ -21,1531 +22,1531 @@
; Writing to M0 from an SMRD instruction will hang the GPU.
; CHECK-NOT: s_buffer_load_dword m0
; CHECK: s_endpgm
-define void @main([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #1 {
+define void @main([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
main_body:
- %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0
- %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !0
- %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 96)
- %24 = call float @llvm.SI.load.const(<16 x i8> %22, i32 100)
- %25 = call float @llvm.SI.load.const(<16 x i8> %22, i32 104)
- %26 = call float @llvm.SI.load.const(<16 x i8> %22, i32 112)
- %27 = call float @llvm.SI.load.const(<16 x i8> %22, i32 116)
- %28 = call float @llvm.SI.load.const(<16 x i8> %22, i32 120)
- %29 = call float @llvm.SI.load.const(<16 x i8> %22, i32 128)
- %30 = call float @llvm.SI.load.const(<16 x i8> %22, i32 132)
- %31 = call float @llvm.SI.load.const(<16 x i8> %22, i32 140)
- %32 = call float @llvm.SI.load.const(<16 x i8> %22, i32 144)
- %33 = call float @llvm.SI.load.const(<16 x i8> %22, i32 160)
- %34 = call float @llvm.SI.load.const(<16 x i8> %22, i32 176)
- %35 = call float @llvm.SI.load.const(<16 x i8> %22, i32 180)
- %36 = call float @llvm.SI.load.const(<16 x i8> %22, i32 184)
- %37 = call float @llvm.SI.load.const(<16 x i8> %22, i32 192)
- %38 = call float @llvm.SI.load.const(<16 x i8> %22, i32 196)
- %39 = call float @llvm.SI.load.const(<16 x i8> %22, i32 200)
- %40 = call float @llvm.SI.load.const(<16 x i8> %22, i32 208)
- %41 = call float @llvm.SI.load.const(<16 x i8> %22, i32 212)
- %42 = call float @llvm.SI.load.const(<16 x i8> %22, i32 216)
- %43 = call float @llvm.SI.load.const(<16 x i8> %22, i32 224)
- %44 = call float @llvm.SI.load.const(<16 x i8> %22, i32 240)
- %45 = call float @llvm.SI.load.const(<16 x i8> %22, i32 244)
- %46 = call float @llvm.SI.load.const(<16 x i8> %22, i32 248)
- %47 = call float @llvm.SI.load.const(<16 x i8> %22, i32 256)
- %48 = call float @llvm.SI.load.const(<16 x i8> %22, i32 272)
- %49 = call float @llvm.SI.load.const(<16 x i8> %22, i32 276)
- %50 = call float @llvm.SI.load.const(<16 x i8> %22, i32 280)
- %51 = call float @llvm.SI.load.const(<16 x i8> %22, i32 288)
- %52 = call float @llvm.SI.load.const(<16 x i8> %22, i32 292)
- %53 = call float @llvm.SI.load.const(<16 x i8> %22, i32 296)
- %54 = call float @llvm.SI.load.const(<16 x i8> %22, i32 304)
- %55 = call float @llvm.SI.load.const(<16 x i8> %22, i32 308)
- %56 = call float @llvm.SI.load.const(<16 x i8> %22, i32 312)
- %57 = call float @llvm.SI.load.const(<16 x i8> %22, i32 368)
- %58 = call float @llvm.SI.load.const(<16 x i8> %22, i32 372)
- %59 = call float @llvm.SI.load.const(<16 x i8> %22, i32 376)
- %60 = call float @llvm.SI.load.const(<16 x i8> %22, i32 384)
- %61 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0
- %62 = load <32 x i8>, <32 x i8> addrspace(2)* %61, !tbaa !0
- %63 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0
- %64 = load <16 x i8>, <16 x i8> addrspace(2)* %63, !tbaa !0
- %65 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 1
- %66 = load <32 x i8>, <32 x i8> addrspace(2)* %65, !tbaa !0
- %67 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 1
- %68 = load <16 x i8>, <16 x i8> addrspace(2)* %67, !tbaa !0
- %69 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 2
- %70 = load <32 x i8>, <32 x i8> addrspace(2)* %69, !tbaa !0
- %71 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 2
- %72 = load <16 x i8>, <16 x i8> addrspace(2)* %71, !tbaa !0
- %73 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 3
- %74 = load <32 x i8>, <32 x i8> addrspace(2)* %73, !tbaa !0
- %75 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 3
- %76 = load <16 x i8>, <16 x i8> addrspace(2)* %75, !tbaa !0
- %77 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 4
- %78 = load <32 x i8>, <32 x i8> addrspace(2)* %77, !tbaa !0
- %79 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 4
- %80 = load <16 x i8>, <16 x i8> addrspace(2)* %79, !tbaa !0
- %81 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 5
- %82 = load <32 x i8>, <32 x i8> addrspace(2)* %81, !tbaa !0
- %83 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 5
- %84 = load <16 x i8>, <16 x i8> addrspace(2)* %83, !tbaa !0
- %85 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 6
- %86 = load <32 x i8>, <32 x i8> addrspace(2)* %85, !tbaa !0
- %87 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 6
- %88 = load <16 x i8>, <16 x i8> addrspace(2)* %87, !tbaa !0
- %89 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 7
- %90 = load <32 x i8>, <32 x i8> addrspace(2)* %89, !tbaa !0
- %91 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 7
- %92 = load <16 x i8>, <16 x i8> addrspace(2)* %91, !tbaa !0
- %93 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %4, <2 x i32> %6)
- %94 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %4, <2 x i32> %6)
- %95 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %4, <2 x i32> %6)
- %96 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %4, <2 x i32> %6)
- %97 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %4, <2 x i32> %6)
- %98 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %4, <2 x i32> %6)
- %99 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %4, <2 x i32> %6)
- %100 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %4, <2 x i32> %6)
- %101 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %4, <2 x i32> %6)
- %102 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %4, <2 x i32> %6)
- %103 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %4, <2 x i32> %6)
- %104 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %4, <2 x i32> %6)
- %105 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %4, <2 x i32> %6)
- %106 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %4, <2 x i32> %6)
- %107 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %4, <2 x i32> %6)
- %108 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %4, <2 x i32> %6)
- %109 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %4, <2 x i32> %6)
- %110 = call i32 @llvm.SI.tid()
- %111 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %110
- %112 = bitcast float %93 to i32
- store i32 %112, i32 addrspace(3)* %111
- %113 = bitcast float %94 to i32
- store i32 %113, i32 addrspace(3)* %111
- %114 = call i32 @llvm.SI.tid()
- %115 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %114
- %116 = and i32 %114, -4
- %117 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %116
- %118 = add i32 %116, 1
- %119 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %118
- %120 = bitcast float %93 to i32
- store i32 %120, i32 addrspace(3)* %115
- %121 = load i32, i32 addrspace(3)* %117
- %122 = bitcast i32 %121 to float
- %123 = load i32, i32 addrspace(3)* %119
- %124 = bitcast i32 %123 to float
- %125 = fsub float %124, %122
- %126 = bitcast float %94 to i32
- store i32 %126, i32 addrspace(3)* %115
- %127 = load i32, i32 addrspace(3)* %117
- %128 = bitcast i32 %127 to float
- %129 = load i32, i32 addrspace(3)* %119
- %130 = bitcast i32 %129 to float
- %131 = fsub float %130, %128
- %132 = insertelement <4 x float> undef, float %125, i32 0
- %133 = insertelement <4 x float> %132, float %131, i32 1
- %134 = insertelement <4 x float> %133, float %131, i32 2
- %135 = insertelement <4 x float> %134, float %131, i32 3
- %136 = extractelement <4 x float> %135, i32 0
- %137 = extractelement <4 x float> %135, i32 1
- %138 = fmul float %60, %93
- %139 = fmul float %60, %94
- %140 = fmul float %60, %94
- %141 = fmul float %60, %94
- %142 = call i32 @llvm.SI.tid()
- %143 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %142
- %144 = bitcast float %138 to i32
- store i32 %144, i32 addrspace(3)* %143
- %145 = bitcast float %139 to i32
- store i32 %145, i32 addrspace(3)* %143
- %146 = bitcast float %140 to i32
- store i32 %146, i32 addrspace(3)* %143
- %147 = bitcast float %141 to i32
- store i32 %147, i32 addrspace(3)* %143
- %148 = call i32 @llvm.SI.tid()
- %149 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %148
- %150 = and i32 %148, -4
- %151 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %150
- %152 = add i32 %150, 2
- %153 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %152
- %154 = bitcast float %138 to i32
- store i32 %154, i32 addrspace(3)* %149
- %155 = load i32, i32 addrspace(3)* %151
- %156 = bitcast i32 %155 to float
- %157 = load i32, i32 addrspace(3)* %153
- %158 = bitcast i32 %157 to float
- %159 = fsub float %158, %156
- %160 = bitcast float %139 to i32
- store i32 %160, i32 addrspace(3)* %149
- %161 = load i32, i32 addrspace(3)* %151
- %162 = bitcast i32 %161 to float
- %163 = load i32, i32 addrspace(3)* %153
- %164 = bitcast i32 %163 to float
- %165 = fsub float %164, %162
- %166 = bitcast float %140 to i32
- store i32 %166, i32 addrspace(3)* %149
- %167 = load i32, i32 addrspace(3)* %151
- %168 = bitcast i32 %167 to float
- %169 = load i32, i32 addrspace(3)* %153
- %170 = bitcast i32 %169 to float
- %171 = fsub float %170, %168
- %172 = bitcast float %141 to i32
- store i32 %172, i32 addrspace(3)* %149
- %173 = load i32, i32 addrspace(3)* %151
- %174 = bitcast i32 %173 to float
- %175 = load i32, i32 addrspace(3)* %153
- %176 = bitcast i32 %175 to float
- %177 = fsub float %176, %174
- %178 = insertelement <4 x float> undef, float %159, i32 0
- %179 = insertelement <4 x float> %178, float %165, i32 1
- %180 = insertelement <4 x float> %179, float %171, i32 2
- %181 = insertelement <4 x float> %180, float %177, i32 3
- %182 = extractelement <4 x float> %181, i32 0
- %183 = extractelement <4 x float> %181, i32 1
- %184 = fdiv float 1.000000e+00, %97
- %185 = fmul float %33, %184
- %186 = fcmp uge float 1.000000e+00, %185
- %187 = select i1 %186, float %185, float 1.000000e+00
- %188 = fmul float %187, %30
- %189 = call float @ceil(float %188)
- %190 = fcmp uge float 3.000000e+00, %189
- %191 = select i1 %190, float 3.000000e+00, float %189
- %192 = fdiv float 1.000000e+00, %191
- %193 = fdiv float 1.000000e+00, %30
- %194 = fmul float %191, %193
- %195 = fmul float %31, %194
- %196 = fmul float %95, %95
- %197 = fmul float %96, %96
- %198 = fadd float %197, %196
- %199 = fmul float %97, %97
- %200 = fadd float %198, %199
- %201 = call float @llvm.amdgcn.rsq.f32(float %200)
- %202 = fmul float %95, %201
- %203 = fmul float %96, %201
- %204 = fmul float %202, %29
- %205 = fmul float %203, %29
- %206 = fmul float %204, -1.000000e+00
- %207 = fmul float %205, 1.000000e+00
- %208 = fmul float %206, %32
- %209 = fmul float %207, %32
- %210 = fsub float -0.000000e+00, %208
- %211 = fadd float %93, %210
- %212 = fsub float -0.000000e+00, %209
- %213 = fadd float %94, %212
- %214 = fmul float %206, %192
- %215 = fmul float %207, %192
- %216 = fmul float -1.000000e+00, %192
- %217 = bitcast float %136 to i32
- %218 = bitcast float %182 to i32
- %219 = bitcast float %137 to i32
- %220 = bitcast float %183 to i32
- %221 = insertelement <8 x i32> undef, i32 %217, i32 0
- %222 = insertelement <8 x i32> %221, i32 %218, i32 1
- %223 = insertelement <8 x i32> %222, i32 %219, i32 2
- %224 = insertelement <8 x i32> %223, i32 %220, i32 3
+ %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0
+ %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+ %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 96)
+ %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 100)
+ %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 104)
+ %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 112)
+ %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 116)
+ %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 120)
+ %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 128)
+ %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 132)
+ %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 140)
+ %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 144)
+ %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 160)
+ %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 176)
+ %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 180)
+ %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 184)
+ %tmp36 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 192)
+ %tmp37 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 196)
+ %tmp38 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 200)
+ %tmp39 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 208)
+ %tmp40 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 212)
+ %tmp41 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 216)
+ %tmp42 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 224)
+ %tmp43 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 240)
+ %tmp44 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 244)
+ %tmp45 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 248)
+ %tmp46 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 256)
+ %tmp47 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 272)
+ %tmp48 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 276)
+ %tmp49 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 280)
+ %tmp50 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 288)
+ %tmp51 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 292)
+ %tmp52 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 296)
+ %tmp53 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 304)
+ %tmp54 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 308)
+ %tmp55 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 312)
+ %tmp56 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 368)
+ %tmp57 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 372)
+ %tmp58 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 376)
+ %tmp59 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 384)
+ %tmp60 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0
+ %tmp61 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp60, !tbaa !0
+ %tmp62 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0
+ %tmp63 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp62, !tbaa !0
+ %tmp64 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 1
+ %tmp65 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp64, !tbaa !0
+ %tmp66 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 1
+ %tmp67 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp66, !tbaa !0
+ %tmp68 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 2
+ %tmp69 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp68, !tbaa !0
+ %tmp70 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 2
+ %tmp71 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp70, !tbaa !0
+ %tmp72 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 3
+ %tmp73 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp72, !tbaa !0
+ %tmp74 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 3
+ %tmp75 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp74, !tbaa !0
+ %tmp76 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 4
+ %tmp77 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp76, !tbaa !0
+ %tmp78 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 4
+ %tmp79 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp78, !tbaa !0
+ %tmp80 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 5
+ %tmp81 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp80, !tbaa !0
+ %tmp82 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 5
+ %tmp83 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp82, !tbaa !0
+ %tmp84 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 6
+ %tmp85 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp84, !tbaa !0
+ %tmp86 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 6
+ %tmp87 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp86, !tbaa !0
+ %tmp88 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 7
+ %tmp89 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp88, !tbaa !0
+ %tmp90 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 7
+ %tmp91 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp90, !tbaa !0
+ %tmp92 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6)
+ %tmp93 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6)
+ %tmp94 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg4, <2 x i32> %arg6)
+ %tmp95 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg4, <2 x i32> %arg6)
+ %tmp96 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg4, <2 x i32> %arg6)
+ %tmp97 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %arg4, <2 x i32> %arg6)
+ %tmp98 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %arg4, <2 x i32> %arg6)
+ %tmp99 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %arg4, <2 x i32> %arg6)
+ %tmp100 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %arg4, <2 x i32> %arg6)
+ %tmp101 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %arg4, <2 x i32> %arg6)
+ %tmp102 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %arg4, <2 x i32> %arg6)
+ %tmp103 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %arg4, <2 x i32> %arg6)
+ %tmp104 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %arg4, <2 x i32> %arg6)
+ %tmp105 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %arg4, <2 x i32> %arg6)
+ %tmp106 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %arg4, <2 x i32> %arg6)
+ %tmp107 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %arg4, <2 x i32> %arg6)
+ %tmp108 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %arg4, <2 x i32> %arg6)
+ %tmp109 = call i32 @llvm.SI.tid()
+ %tmp110 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp109
+ %tmp111 = bitcast float %tmp92 to i32
+ store i32 %tmp111, i32 addrspace(3)* %tmp110
+ %tmp112 = bitcast float %tmp93 to i32
+ store i32 %tmp112, i32 addrspace(3)* %tmp110
+ %tmp113 = call i32 @llvm.SI.tid()
+ %tmp114 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp113
+ %tmp115 = and i32 %tmp113, -4
+ %tmp116 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp115
+ %tmp117 = add i32 %tmp115, 1
+ %tmp118 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp117
+ %tmp119 = bitcast float %tmp92 to i32
+ store i32 %tmp119, i32 addrspace(3)* %tmp114
+ %tmp120 = load i32, i32 addrspace(3)* %tmp116
+ %tmp121 = bitcast i32 %tmp120 to float
+ %tmp122 = load i32, i32 addrspace(3)* %tmp118
+ %tmp123 = bitcast i32 %tmp122 to float
+ %tmp124 = fsub float %tmp123, %tmp121
+ %tmp125 = bitcast float %tmp93 to i32
+ store i32 %tmp125, i32 addrspace(3)* %tmp114
+ %tmp126 = load i32, i32 addrspace(3)* %tmp116
+ %tmp127 = bitcast i32 %tmp126 to float
+ %tmp128 = load i32, i32 addrspace(3)* %tmp118
+ %tmp129 = bitcast i32 %tmp128 to float
+ %tmp130 = fsub float %tmp129, %tmp127
+ %tmp131 = insertelement <4 x float> undef, float %tmp124, i32 0
+ %tmp132 = insertelement <4 x float> %tmp131, float %tmp130, i32 1
+ %tmp133 = insertelement <4 x float> %tmp132, float %tmp130, i32 2
+ %tmp134 = insertelement <4 x float> %tmp133, float %tmp130, i32 3
+ %tmp135 = extractelement <4 x float> %tmp134, i32 0
+ %tmp136 = extractelement <4 x float> %tmp134, i32 1
+ %tmp137 = fmul float %tmp59, %tmp92
+ %tmp138 = fmul float %tmp59, %tmp93
+ %tmp139 = fmul float %tmp59, %tmp93
+ %tmp140 = fmul float %tmp59, %tmp93
+ %tmp141 = call i32 @llvm.SI.tid()
+ %tmp142 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp141
+ %tmp143 = bitcast float %tmp137 to i32
+ store i32 %tmp143, i32 addrspace(3)* %tmp142
+ %tmp144 = bitcast float %tmp138 to i32
+ store i32 %tmp144, i32 addrspace(3)* %tmp142
+ %tmp145 = bitcast float %tmp139 to i32
+ store i32 %tmp145, i32 addrspace(3)* %tmp142
+ %tmp146 = bitcast float %tmp140 to i32
+ store i32 %tmp146, i32 addrspace(3)* %tmp142
+ %tmp147 = call i32 @llvm.SI.tid()
+ %tmp148 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp147
+ %tmp149 = and i32 %tmp147, -4
+ %tmp150 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp149
+ %tmp151 = add i32 %tmp149, 2
+ %tmp152 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp151
+ %tmp153 = bitcast float %tmp137 to i32
+ store i32 %tmp153, i32 addrspace(3)* %tmp148
+ %tmp154 = load i32, i32 addrspace(3)* %tmp150
+ %tmp155 = bitcast i32 %tmp154 to float
+ %tmp156 = load i32, i32 addrspace(3)* %tmp152
+ %tmp157 = bitcast i32 %tmp156 to float
+ %tmp158 = fsub float %tmp157, %tmp155
+ %tmp159 = bitcast float %tmp138 to i32
+ store i32 %tmp159, i32 addrspace(3)* %tmp148
+ %tmp160 = load i32, i32 addrspace(3)* %tmp150
+ %tmp161 = bitcast i32 %tmp160 to float
+ %tmp162 = load i32, i32 addrspace(3)* %tmp152
+ %tmp163 = bitcast i32 %tmp162 to float
+ %tmp164 = fsub float %tmp163, %tmp161
+ %tmp165 = bitcast float %tmp139 to i32
+ store i32 %tmp165, i32 addrspace(3)* %tmp148
+ %tmp166 = load i32, i32 addrspace(3)* %tmp150
+ %tmp167 = bitcast i32 %tmp166 to float
+ %tmp168 = load i32, i32 addrspace(3)* %tmp152
+ %tmp169 = bitcast i32 %tmp168 to float
+ %tmp170 = fsub float %tmp169, %tmp167
+ %tmp171 = bitcast float %tmp140 to i32
+ store i32 %tmp171, i32 addrspace(3)* %tmp148
+ %tmp172 = load i32, i32 addrspace(3)* %tmp150
+ %tmp173 = bitcast i32 %tmp172 to float
+ %tmp174 = load i32, i32 addrspace(3)* %tmp152
+ %tmp175 = bitcast i32 %tmp174 to float
+ %tmp176 = fsub float %tmp175, %tmp173
+ %tmp177 = insertelement <4 x float> undef, float %tmp158, i32 0
+ %tmp178 = insertelement <4 x float> %tmp177, float %tmp164, i32 1
+ %tmp179 = insertelement <4 x float> %tmp178, float %tmp170, i32 2
+ %tmp180 = insertelement <4 x float> %tmp179, float %tmp176, i32 3
+ %tmp181 = extractelement <4 x float> %tmp180, i32 0
+ %tmp182 = extractelement <4 x float> %tmp180, i32 1
+ %tmp183 = fdiv float 1.000000e+00, %tmp96
+ %tmp184 = fmul float %tmp32, %tmp183
+ %tmp185 = fcmp uge float 1.000000e+00, %tmp184
+ %tmp186 = select i1 %tmp185, float %tmp184, float 1.000000e+00
+ %tmp187 = fmul float %tmp186, %tmp29
+ %tmp188 = call float @ceil(float %tmp187)
+ %tmp189 = fcmp uge float 3.000000e+00, %tmp188
+ %tmp190 = select i1 %tmp189, float 3.000000e+00, float %tmp188
+ %tmp191 = fdiv float 1.000000e+00, %tmp190
+ %tmp192 = fdiv float 1.000000e+00, %tmp29
+ %tmp193 = fmul float %tmp190, %tmp192
+ %tmp194 = fmul float %tmp30, %tmp193
+ %tmp195 = fmul float %tmp94, %tmp94
+ %tmp196 = fmul float %tmp95, %tmp95
+ %tmp197 = fadd float %tmp196, %tmp195
+ %tmp198 = fmul float %tmp96, %tmp96
+ %tmp199 = fadd float %tmp197, %tmp198
+ %tmp200 = call float @llvm.amdgcn.rsq.f32(float %tmp199)
+ %tmp201 = fmul float %tmp94, %tmp200
+ %tmp202 = fmul float %tmp95, %tmp200
+ %tmp203 = fmul float %tmp201, %tmp28
+ %tmp204 = fmul float %tmp202, %tmp28
+ %tmp205 = fmul float %tmp203, -1.000000e+00
+ %tmp206 = fmul float %tmp204, 1.000000e+00
+ %tmp207 = fmul float %tmp205, %tmp31
+ %tmp208 = fmul float %tmp206, %tmp31
+ %tmp209 = fsub float -0.000000e+00, %tmp207
+ %tmp210 = fadd float %tmp92, %tmp209
+ %tmp211 = fsub float -0.000000e+00, %tmp208
+ %tmp212 = fadd float %tmp93, %tmp211
+ %tmp213 = fmul float %tmp205, %tmp191
+ %tmp214 = fmul float %tmp206, %tmp191
+ %tmp215 = fmul float -1.000000e+00, %tmp191
+ %tmp216 = bitcast float %tmp135 to i32
+ %tmp217 = bitcast float %tmp181 to i32
+ %tmp218 = bitcast float %tmp136 to i32
+ %tmp219 = bitcast float %tmp182 to i32
+ %tmp220 = insertelement <8 x i32> undef, i32 %tmp216, i32 0
+ %tmp221 = insertelement <8 x i32> %tmp220, i32 %tmp217, i32 1
+ %tmp222 = insertelement <8 x i32> %tmp221, i32 %tmp218, i32 2
+ %tmp223 = insertelement <8 x i32> %tmp222, i32 %tmp219, i32 3
br label %LOOP
LOOP: ; preds = %ENDIF, %main_body
- %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %258, %ENDIF ]
- %temp28.0 = phi float [ %211, %main_body ], [ %253, %ENDIF ]
- %temp29.0 = phi float [ %213, %main_body ], [ %255, %ENDIF ]
- %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %257, %ENDIF ]
- %225 = fcmp oge float %temp24.0, %191
- %226 = sext i1 %225 to i32
- %227 = bitcast i32 %226 to float
- %228 = bitcast float %227 to i32
- %229 = icmp ne i32 %228, 0
- br i1 %229, label %IF, label %ENDIF
+ %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp257, %ENDIF ]
+ %temp28.0 = phi float [ %tmp210, %main_body ], [ %tmp252, %ENDIF ]
+ %temp29.0 = phi float [ %tmp212, %main_body ], [ %tmp254, %ENDIF ]
+ %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp256, %ENDIF ]
+ %tmp224 = fcmp oge float %temp24.0, %tmp190
+ %tmp225 = sext i1 %tmp224 to i32
+ %tmp226 = bitcast i32 %tmp225 to float
+ %tmp227 = bitcast float %tmp226 to i32
+ %tmp228 = icmp ne i32 %tmp227, 0
+ br i1 %tmp228, label %IF, label %ENDIF
IF: ; preds = %LOOP
- %230 = bitcast float %136 to i32
- %231 = bitcast float %182 to i32
- %232 = bitcast float %137 to i32
- %233 = bitcast float %183 to i32
- %234 = insertelement <8 x i32> undef, i32 %230, i32 0
- %235 = insertelement <8 x i32> %234, i32 %231, i32 1
- %236 = insertelement <8 x i32> %235, i32 %232, i32 2
- %237 = insertelement <8 x i32> %236, i32 %233, i32 3
+ %tmp229 = bitcast float %tmp135 to i32
+ %tmp230 = bitcast float %tmp181 to i32
+ %tmp231 = bitcast float %tmp136 to i32
+ %tmp232 = bitcast float %tmp182 to i32
+ %tmp233 = insertelement <8 x i32> undef, i32 %tmp229, i32 0
+ %tmp234 = insertelement <8 x i32> %tmp233, i32 %tmp230, i32 1
+ %tmp235 = insertelement <8 x i32> %tmp234, i32 %tmp231, i32 2
+ %tmp236 = insertelement <8 x i32> %tmp235, i32 %tmp232, i32 3
br label %LOOP65
ENDIF: ; preds = %LOOP
- %238 = bitcast float %temp28.0 to i32
- %239 = bitcast float %temp29.0 to i32
- %240 = insertelement <8 x i32> %224, i32 %238, i32 4
- %241 = insertelement <8 x i32> %240, i32 %239, i32 5
- %242 = insertelement <8 x i32> %241, i32 undef, i32 6
- %243 = insertelement <8 x i32> %242, i32 undef, i32 7
- %244 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %243, <32 x i8> %62, <16 x i8> %64, i32 2)
- %245 = extractelement <4 x float> %244, i32 3
- %246 = fcmp oge float %temp30.0, %245
- %247 = sext i1 %246 to i32
- %248 = bitcast i32 %247 to float
- %249 = bitcast float %248 to i32
- %250 = and i32 %249, 1065353216
- %251 = bitcast i32 %250 to float
- %252 = fmul float %214, %251
- %253 = fadd float %252, %temp28.0
- %254 = fmul float %215, %251
- %255 = fadd float %254, %temp29.0
- %256 = fmul float %216, %251
- %257 = fadd float %256, %temp30.0
- %258 = fadd float %temp24.0, 1.000000e+00
+ %tmp237 = bitcast float %temp28.0 to i32
+ %tmp238 = bitcast float %temp29.0 to i32
+ %tmp239 = insertelement <8 x i32> %tmp223, i32 %tmp237, i32 4
+ %tmp240 = insertelement <8 x i32> %tmp239, i32 %tmp238, i32 5
+ %tmp241 = insertelement <8 x i32> %tmp240, i32 undef, i32 6
+ %tmp242 = insertelement <8 x i32> %tmp241, i32 undef, i32 7
+ %tmp243 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp242, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2)
+ %tmp244 = extractelement <4 x float> %tmp243, i32 3
+ %tmp245 = fcmp oge float %temp30.0, %tmp244
+ %tmp246 = sext i1 %tmp245 to i32
+ %tmp247 = bitcast i32 %tmp246 to float
+ %tmp248 = bitcast float %tmp247 to i32
+ %tmp249 = and i32 %tmp248, 1065353216
+ %tmp250 = bitcast i32 %tmp249 to float
+ %tmp251 = fmul float %tmp213, %tmp250
+ %tmp252 = fadd float %tmp251, %temp28.0
+ %tmp253 = fmul float %tmp214, %tmp250
+ %tmp254 = fadd float %tmp253, %temp29.0
+ %tmp255 = fmul float %tmp215, %tmp250
+ %tmp256 = fadd float %tmp255, %temp30.0
+ %tmp257 = fadd float %temp24.0, 1.000000e+00
br label %LOOP
LOOP65: ; preds = %ENDIF66, %IF
- %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %610, %ENDIF66 ]
- %temp28.1 = phi float [ %temp28.0, %IF ], [ %605, %ENDIF66 ]
- %temp29.1 = phi float [ %temp29.0, %IF ], [ %607, %ENDIF66 ]
- %temp30.1 = phi float [ %temp30.0, %IF ], [ %609, %ENDIF66 ]
- %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %611, %ENDIF66 ]
- %259 = fcmp oge float %temp24.1, %195
- %260 = sext i1 %259 to i32
- %261 = bitcast i32 %260 to float
- %262 = bitcast float %261 to i32
- %263 = icmp ne i32 %262, 0
- br i1 %263, label %IF67, label %ENDIF66
+ %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %tmp609, %ENDIF66 ]
+ %temp28.1 = phi float [ %temp28.0, %IF ], [ %tmp604, %ENDIF66 ]
+ %temp29.1 = phi float [ %temp29.0, %IF ], [ %tmp606, %ENDIF66 ]
+ %temp30.1 = phi float [ %temp30.0, %IF ], [ %tmp608, %ENDIF66 ]
+ %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %tmp610, %ENDIF66 ]
+ %tmp258 = fcmp oge float %temp24.1, %tmp194
+ %tmp259 = sext i1 %tmp258 to i32
+ %tmp260 = bitcast i32 %tmp259 to float
+ %tmp261 = bitcast float %tmp260 to i32
+ %tmp262 = icmp ne i32 %tmp261, 0
+ br i1 %tmp262, label %IF67, label %ENDIF66
IF67: ; preds = %LOOP65
- %264 = bitcast float %136 to i32
- %265 = bitcast float %182 to i32
- %266 = bitcast float %137 to i32
- %267 = bitcast float %183 to i32
- %268 = bitcast float %temp28.1 to i32
- %269 = bitcast float %temp29.1 to i32
- %270 = insertelement <8 x i32> undef, i32 %264, i32 0
- %271 = insertelement <8 x i32> %270, i32 %265, i32 1
- %272 = insertelement <8 x i32> %271, i32 %266, i32 2
- %273 = insertelement <8 x i32> %272, i32 %267, i32 3
- %274 = insertelement <8 x i32> %273, i32 %268, i32 4
- %275 = insertelement <8 x i32> %274, i32 %269, i32 5
- %276 = insertelement <8 x i32> %275, i32 undef, i32 6
- %277 = insertelement <8 x i32> %276, i32 undef, i32 7
- %278 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %277, <32 x i8> %66, <16 x i8> %68, i32 2)
- %279 = extractelement <4 x float> %278, i32 0
- %280 = extractelement <4 x float> %278, i32 1
- %281 = extractelement <4 x float> %278, i32 2
- %282 = extractelement <4 x float> %278, i32 3
- %283 = fmul float %282, %47
- %284 = bitcast float %136 to i32
- %285 = bitcast float %182 to i32
- %286 = bitcast float %137 to i32
- %287 = bitcast float %183 to i32
- %288 = bitcast float %temp28.1 to i32
- %289 = bitcast float %temp29.1 to i32
- %290 = insertelement <8 x i32> undef, i32 %284, i32 0
- %291 = insertelement <8 x i32> %290, i32 %285, i32 1
- %292 = insertelement <8 x i32> %291, i32 %286, i32 2
- %293 = insertelement <8 x i32> %292, i32 %287, i32 3
- %294 = insertelement <8 x i32> %293, i32 %288, i32 4
- %295 = insertelement <8 x i32> %294, i32 %289, i32 5
- %296 = insertelement <8 x i32> %295, i32 undef, i32 6
- %297 = insertelement <8 x i32> %296, i32 undef, i32 7
- %298 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %297, <32 x i8> %82, <16 x i8> %84, i32 2)
- %299 = extractelement <4 x float> %298, i32 0
- %300 = extractelement <4 x float> %298, i32 1
- %301 = extractelement <4 x float> %298, i32 2
- %302 = bitcast float %136 to i32
- %303 = bitcast float %182 to i32
- %304 = bitcast float %137 to i32
- %305 = bitcast float %183 to i32
- %306 = bitcast float %temp28.1 to i32
- %307 = bitcast float %temp29.1 to i32
- %308 = insertelement <8 x i32> undef, i32 %302, i32 0
- %309 = insertelement <8 x i32> %308, i32 %303, i32 1
- %310 = insertelement <8 x i32> %309, i32 %304, i32 2
- %311 = insertelement <8 x i32> %310, i32 %305, i32 3
- %312 = insertelement <8 x i32> %311, i32 %306, i32 4
- %313 = insertelement <8 x i32> %312, i32 %307, i32 5
- %314 = insertelement <8 x i32> %313, i32 undef, i32 6
- %315 = insertelement <8 x i32> %314, i32 undef, i32 7
- %316 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %315, <32 x i8> %78, <16 x i8> %80, i32 2)
- %317 = extractelement <4 x float> %316, i32 0
- %318 = extractelement <4 x float> %316, i32 1
- %319 = extractelement <4 x float> %316, i32 2
- %320 = fmul float %317, %23
- %321 = fmul float %318, %24
- %322 = fmul float %319, %25
- %323 = fmul float %299, %26
- %324 = fadd float %323, %320
- %325 = fmul float %300, %27
- %326 = fadd float %325, %321
- %327 = fmul float %301, %28
- %328 = fadd float %327, %322
- %329 = fadd float %279, %324
- %330 = fadd float %280, %326
- %331 = fadd float %281, %328
- %332 = bitcast float %136 to i32
- %333 = bitcast float %182 to i32
- %334 = bitcast float %137 to i32
- %335 = bitcast float %183 to i32
- %336 = bitcast float %temp28.1 to i32
- %337 = bitcast float %temp29.1 to i32
- %338 = insertelement <8 x i32> undef, i32 %332, i32 0
- %339 = insertelement <8 x i32> %338, i32 %333, i32 1
- %340 = insertelement <8 x i32> %339, i32 %334, i32 2
- %341 = insertelement <8 x i32> %340, i32 %335, i32 3
- %342 = insertelement <8 x i32> %341, i32 %336, i32 4
- %343 = insertelement <8 x i32> %342, i32 %337, i32 5
- %344 = insertelement <8 x i32> %343, i32 undef, i32 6
- %345 = insertelement <8 x i32> %344, i32 undef, i32 7
- %346 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %345, <32 x i8> %62, <16 x i8> %64, i32 2)
- %347 = extractelement <4 x float> %346, i32 0
- %348 = extractelement <4 x float> %346, i32 1
- %349 = extractelement <4 x float> %346, i32 2
- %350 = fadd float %347, -5.000000e-01
- %351 = fadd float %348, -5.000000e-01
- %352 = fadd float %349, -5.000000e-01
- %353 = fmul float %350, %350
- %354 = fmul float %351, %351
- %355 = fadd float %354, %353
- %356 = fmul float %352, %352
- %357 = fadd float %355, %356
- %358 = call float @llvm.amdgcn.rsq.f32(float %357)
- %359 = fmul float %350, %358
- %360 = fmul float %351, %358
- %361 = fmul float %352, %358
- %362 = bitcast float %136 to i32
- %363 = bitcast float %182 to i32
- %364 = bitcast float %137 to i32
- %365 = bitcast float %183 to i32
- %366 = bitcast float %temp28.1 to i32
- %367 = bitcast float %temp29.1 to i32
- %368 = insertelement <8 x i32> undef, i32 %362, i32 0
- %369 = insertelement <8 x i32> %368, i32 %363, i32 1
- %370 = insertelement <8 x i32> %369, i32 %364, i32 2
- %371 = insertelement <8 x i32> %370, i32 %365, i32 3
- %372 = insertelement <8 x i32> %371, i32 %366, i32 4
- %373 = insertelement <8 x i32> %372, i32 %367, i32 5
- %374 = insertelement <8 x i32> %373, i32 undef, i32 6
- %375 = insertelement <8 x i32> %374, i32 undef, i32 7
- %376 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %375, <32 x i8> %70, <16 x i8> %72, i32 2)
- %377 = extractelement <4 x float> %376, i32 0
- %378 = extractelement <4 x float> %376, i32 1
- %379 = extractelement <4 x float> %376, i32 2
- %380 = extractelement <4 x float> %376, i32 3
- %381 = fsub float -0.000000e+00, %95
- %382 = fsub float -0.000000e+00, %96
- %383 = fsub float -0.000000e+00, %97
- %384 = fmul float %359, %381
- %385 = fmul float %360, %382
- %386 = fadd float %385, %384
- %387 = fmul float %361, %383
- %388 = fadd float %386, %387
- %389 = fmul float %388, %359
- %390 = fmul float %388, %360
- %391 = fmul float %388, %361
- %392 = fmul float 2.000000e+00, %389
- %393 = fmul float 2.000000e+00, %390
- %394 = fmul float 2.000000e+00, %391
- %395 = fsub float -0.000000e+00, %392
- %396 = fadd float %381, %395
- %397 = fsub float -0.000000e+00, %393
- %398 = fadd float %382, %397
- %399 = fsub float -0.000000e+00, %394
- %400 = fadd float %383, %399
- %401 = fmul float %396, %98
- %402 = fmul float %396, %99
- %403 = fmul float %396, %100
- %404 = fmul float %398, %101
- %405 = fadd float %404, %401
- %406 = fmul float %398, %102
- %407 = fadd float %406, %402
- %408 = fmul float %398, %103
- %409 = fadd float %408, %403
- %410 = fmul float %400, %104
- %411 = fadd float %410, %405
- %412 = fmul float %400, %105
- %413 = fadd float %412, %407
- %414 = fmul float %400, %106
- %415 = fadd float %414, %409
- %416 = bitcast float %136 to i32
- %417 = bitcast float %182 to i32
- %418 = bitcast float %137 to i32
- %419 = bitcast float %183 to i32
- %420 = bitcast float %temp28.1 to i32
- %421 = bitcast float %temp29.1 to i32
- %422 = insertelement <8 x i32> undef, i32 %416, i32 0
- %423 = insertelement <8 x i32> %422, i32 %417, i32 1
- %424 = insertelement <8 x i32> %423, i32 %418, i32 2
- %425 = insertelement <8 x i32> %424, i32 %419, i32 3
- %426 = insertelement <8 x i32> %425, i32 %420, i32 4
- %427 = insertelement <8 x i32> %426, i32 %421, i32 5
- %428 = insertelement <8 x i32> %427, i32 undef, i32 6
- %429 = insertelement <8 x i32> %428, i32 undef, i32 7
- %430 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %429, <32 x i8> %86, <16 x i8> %88, i32 2)
- %431 = extractelement <4 x float> %430, i32 0
- %432 = extractelement <4 x float> %430, i32 1
- %433 = extractelement <4 x float> %430, i32 2
- %434 = fmul float %48, %411
- %435 = fmul float %49, %411
- %436 = fmul float %50, %411
- %437 = fmul float %51, %413
- %438 = fadd float %437, %434
- %439 = fmul float %52, %413
- %440 = fadd float %439, %435
- %441 = fmul float %53, %413
- %442 = fadd float %441, %436
- %443 = fmul float %54, %415
- %444 = fadd float %443, %438
- %445 = fmul float %55, %415
- %446 = fadd float %445, %440
- %447 = fmul float %56, %415
- %448 = fadd float %447, %442
- %449 = insertelement <4 x float> undef, float %444, i32 0
- %450 = insertelement <4 x float> %449, float %446, i32 1
- %451 = insertelement <4 x float> %450, float %448, i32 2
- %452 = insertelement <4 x float> %451, float %195, i32 3
- %453 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %452)
- %454 = extractelement <4 x float> %453, i32 0
- %455 = extractelement <4 x float> %453, i32 1
- %456 = extractelement <4 x float> %453, i32 2
- %457 = extractelement <4 x float> %453, i32 3
- %458 = call float @fabs(float %456)
- %459 = fdiv float 1.000000e+00, %458
- %460 = fmul float %454, %459
- %461 = fadd float %460, 1.500000e+00
- %462 = fmul float %455, %459
- %463 = fadd float %462, 1.500000e+00
- %464 = bitcast float %463 to i32
- %465 = bitcast float %461 to i32
- %466 = bitcast float %457 to i32
- %467 = insertelement <4 x i32> undef, i32 %464, i32 0
- %468 = insertelement <4 x i32> %467, i32 %465, i32 1
- %469 = insertelement <4 x i32> %468, i32 %466, i32 2
- %470 = insertelement <4 x i32> %469, i32 undef, i32 3
- %471 = call <4 x float> @llvm.SI.sample.v4i32(<4 x i32> %470, <32 x i8> %90, <16 x i8> %92, i32 4)
- %472 = extractelement <4 x float> %471, i32 0
- %473 = extractelement <4 x float> %471, i32 1
- %474 = extractelement <4 x float> %471, i32 2
- %475 = fmul float %431, %472
- %476 = fadd float %475, %329
- %477 = fmul float %432, %473
- %478 = fadd float %477, %330
- %479 = fmul float %433, %474
- %480 = fadd float %479, %331
- %481 = fmul float %107, %107
- %482 = fmul float %108, %108
- %483 = fadd float %482, %481
- %484 = fmul float %109, %109
- %485 = fadd float %483, %484
- %486 = call float @llvm.amdgcn.rsq.f32(float %485)
- %487 = fmul float %107, %486
- %488 = fmul float %108, %486
- %489 = fmul float %109, %486
- %490 = fmul float %377, %40
- %491 = fmul float %378, %41
- %492 = fmul float %379, %42
- %493 = fmul float %359, %487
- %494 = fmul float %360, %488
- %495 = fadd float %494, %493
- %496 = fmul float %361, %489
- %497 = fadd float %495, %496
- %498 = fmul float %497, %359
- %499 = fmul float %497, %360
- %500 = fmul float %497, %361
- %501 = fmul float 2.000000e+00, %498
- %502 = fmul float 2.000000e+00, %499
- %503 = fmul float 2.000000e+00, %500
- %504 = fsub float -0.000000e+00, %501
- %505 = fadd float %487, %504
- %506 = fsub float -0.000000e+00, %502
- %507 = fadd float %488, %506
- %508 = fsub float -0.000000e+00, %503
- %509 = fadd float %489, %508
- %510 = fmul float %95, %95
- %511 = fmul float %96, %96
- %512 = fadd float %511, %510
- %513 = fmul float %97, %97
- %514 = fadd float %512, %513
- %515 = call float @llvm.amdgcn.rsq.f32(float %514)
- %516 = fmul float %95, %515
- %517 = fmul float %96, %515
- %518 = fmul float %97, %515
- %519 = fmul float %505, %516
- %520 = fmul float %507, %517
- %521 = fadd float %520, %519
- %522 = fmul float %509, %518
- %523 = fadd float %521, %522
- %524 = fsub float -0.000000e+00, %523
- %525 = fcmp uge float %524, 0.000000e+00
- %526 = select i1 %525, float %524, float 0.000000e+00
- %527 = fmul float %43, %380
- %528 = fadd float %527, 1.000000e+00
- %529 = call float @llvm.pow.f32(float %526, float %528)
- %530 = fmul float %476, %37
- %531 = fmul float %478, %38
- %532 = fmul float %480, %39
- %533 = fmul float %359, %487
- %534 = fmul float %360, %488
- %535 = fadd float %534, %533
- %536 = fmul float %361, %489
- %537 = fadd float %535, %536
- %538 = fcmp uge float %537, 0.000000e+00
- %539 = select i1 %538, float %537, float 0.000000e+00
- %540 = fmul float %530, %539
- %541 = fmul float %531, %539
- %542 = fmul float %532, %539
- %543 = fmul float %490, %529
- %544 = fadd float %543, %540
- %545 = fmul float %491, %529
- %546 = fadd float %545, %541
- %547 = fmul float %492, %529
- %548 = fadd float %547, %542
- %549 = fmul float %476, %34
- %550 = fmul float %478, %35
- %551 = fmul float %480, %36
- %552 = fmul float %544, %57
- %553 = fadd float %552, %549
- %554 = fmul float %546, %58
- %555 = fadd float %554, %550
- %556 = fmul float %548, %59
- %557 = fadd float %556, %551
- %558 = bitcast float %136 to i32
- %559 = bitcast float %182 to i32
- %560 = bitcast float %137 to i32
- %561 = bitcast float %183 to i32
- %562 = bitcast float %temp28.1 to i32
- %563 = bitcast float %temp29.1 to i32
- %564 = insertelement <8 x i32> undef, i32 %558, i32 0
- %565 = insertelement <8 x i32> %564, i32 %559, i32 1
- %566 = insertelement <8 x i32> %565, i32 %560, i32 2
- %567 = insertelement <8 x i32> %566, i32 %561, i32 3
- %568 = insertelement <8 x i32> %567, i32 %562, i32 4
- %569 = insertelement <8 x i32> %568, i32 %563, i32 5
- %570 = insertelement <8 x i32> %569, i32 undef, i32 6
- %571 = insertelement <8 x i32> %570, i32 undef, i32 7
- %572 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %571, <32 x i8> %74, <16 x i8> %76, i32 2)
- %573 = extractelement <4 x float> %572, i32 0
- %574 = extractelement <4 x float> %572, i32 1
- %575 = extractelement <4 x float> %572, i32 2
- %576 = fmul float %573, %44
- %577 = fadd float %576, %553
- %578 = fmul float %574, %45
- %579 = fadd float %578, %555
- %580 = fmul float %575, %46
- %581 = fadd float %580, %557
- %582 = call i32 @llvm.SI.packf16(float %577, float %579)
- %583 = bitcast i32 %582 to float
- %584 = call i32 @llvm.SI.packf16(float %581, float %283)
- %585 = bitcast i32 %584 to float
- call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %583, float %585, float %583, float %585)
+ %tmp263 = bitcast float %tmp135 to i32
+ %tmp264 = bitcast float %tmp181 to i32
+ %tmp265 = bitcast float %tmp136 to i32
+ %tmp266 = bitcast float %tmp182 to i32
+ %tmp267 = bitcast float %temp28.1 to i32
+ %tmp268 = bitcast float %temp29.1 to i32
+ %tmp269 = insertelement <8 x i32> undef, i32 %tmp263, i32 0
+ %tmp270 = insertelement <8 x i32> %tmp269, i32 %tmp264, i32 1
+ %tmp271 = insertelement <8 x i32> %tmp270, i32 %tmp265, i32 2
+ %tmp272 = insertelement <8 x i32> %tmp271, i32 %tmp266, i32 3
+ %tmp273 = insertelement <8 x i32> %tmp272, i32 %tmp267, i32 4
+ %tmp274 = insertelement <8 x i32> %tmp273, i32 %tmp268, i32 5
+ %tmp275 = insertelement <8 x i32> %tmp274, i32 undef, i32 6
+ %tmp276 = insertelement <8 x i32> %tmp275, i32 undef, i32 7
+ %tmp277 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp276, <32 x i8> %tmp65, <16 x i8> %tmp67, i32 2)
+ %tmp278 = extractelement <4 x float> %tmp277, i32 0
+ %tmp279 = extractelement <4 x float> %tmp277, i32 1
+ %tmp280 = extractelement <4 x float> %tmp277, i32 2
+ %tmp281 = extractelement <4 x float> %tmp277, i32 3
+ %tmp282 = fmul float %tmp281, %tmp46
+ %tmp283 = bitcast float %tmp135 to i32
+ %tmp284 = bitcast float %tmp181 to i32
+ %tmp285 = bitcast float %tmp136 to i32
+ %tmp286 = bitcast float %tmp182 to i32
+ %tmp287 = bitcast float %temp28.1 to i32
+ %tmp288 = bitcast float %temp29.1 to i32
+ %tmp289 = insertelement <8 x i32> undef, i32 %tmp283, i32 0
+ %tmp290 = insertelement <8 x i32> %tmp289, i32 %tmp284, i32 1
+ %tmp291 = insertelement <8 x i32> %tmp290, i32 %tmp285, i32 2
+ %tmp292 = insertelement <8 x i32> %tmp291, i32 %tmp286, i32 3
+ %tmp293 = insertelement <8 x i32> %tmp292, i32 %tmp287, i32 4
+ %tmp294 = insertelement <8 x i32> %tmp293, i32 %tmp288, i32 5
+ %tmp295 = insertelement <8 x i32> %tmp294, i32 undef, i32 6
+ %tmp296 = insertelement <8 x i32> %tmp295, i32 undef, i32 7
+ %tmp297 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp296, <32 x i8> %tmp81, <16 x i8> %tmp83, i32 2)
+ %tmp298 = extractelement <4 x float> %tmp297, i32 0
+ %tmp299 = extractelement <4 x float> %tmp297, i32 1
+ %tmp300 = extractelement <4 x float> %tmp297, i32 2
+ %tmp301 = bitcast float %tmp135 to i32
+ %tmp302 = bitcast float %tmp181 to i32
+ %tmp303 = bitcast float %tmp136 to i32
+ %tmp304 = bitcast float %tmp182 to i32
+ %tmp305 = bitcast float %temp28.1 to i32
+ %tmp306 = bitcast float %temp29.1 to i32
+ %tmp307 = insertelement <8 x i32> undef, i32 %tmp301, i32 0
+ %tmp308 = insertelement <8 x i32> %tmp307, i32 %tmp302, i32 1
+ %tmp309 = insertelement <8 x i32> %tmp308, i32 %tmp303, i32 2
+ %tmp310 = insertelement <8 x i32> %tmp309, i32 %tmp304, i32 3
+ %tmp311 = insertelement <8 x i32> %tmp310, i32 %tmp305, i32 4
+ %tmp312 = insertelement <8 x i32> %tmp311, i32 %tmp306, i32 5
+ %tmp313 = insertelement <8 x i32> %tmp312, i32 undef, i32 6
+ %tmp314 = insertelement <8 x i32> %tmp313, i32 undef, i32 7
+ %tmp315 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp314, <32 x i8> %tmp77, <16 x i8> %tmp79, i32 2)
+ %tmp316 = extractelement <4 x float> %tmp315, i32 0
+ %tmp317 = extractelement <4 x float> %tmp315, i32 1
+ %tmp318 = extractelement <4 x float> %tmp315, i32 2
+ %tmp319 = fmul float %tmp316, %tmp22
+ %tmp320 = fmul float %tmp317, %tmp23
+ %tmp321 = fmul float %tmp318, %tmp24
+ %tmp322 = fmul float %tmp298, %tmp25
+ %tmp323 = fadd float %tmp322, %tmp319
+ %tmp324 = fmul float %tmp299, %tmp26
+ %tmp325 = fadd float %tmp324, %tmp320
+ %tmp326 = fmul float %tmp300, %tmp27
+ %tmp327 = fadd float %tmp326, %tmp321
+ %tmp328 = fadd float %tmp278, %tmp323
+ %tmp329 = fadd float %tmp279, %tmp325
+ %tmp330 = fadd float %tmp280, %tmp327
+ %tmp331 = bitcast float %tmp135 to i32
+ %tmp332 = bitcast float %tmp181 to i32
+ %tmp333 = bitcast float %tmp136 to i32
+ %tmp334 = bitcast float %tmp182 to i32
+ %tmp335 = bitcast float %temp28.1 to i32
+ %tmp336 = bitcast float %temp29.1 to i32
+ %tmp337 = insertelement <8 x i32> undef, i32 %tmp331, i32 0
+ %tmp338 = insertelement <8 x i32> %tmp337, i32 %tmp332, i32 1
+ %tmp339 = insertelement <8 x i32> %tmp338, i32 %tmp333, i32 2
+ %tmp340 = insertelement <8 x i32> %tmp339, i32 %tmp334, i32 3
+ %tmp341 = insertelement <8 x i32> %tmp340, i32 %tmp335, i32 4
+ %tmp342 = insertelement <8 x i32> %tmp341, i32 %tmp336, i32 5
+ %tmp343 = insertelement <8 x i32> %tmp342, i32 undef, i32 6
+ %tmp344 = insertelement <8 x i32> %tmp343, i32 undef, i32 7
+ %tmp345 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp344, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2)
+ %tmp346 = extractelement <4 x float> %tmp345, i32 0
+ %tmp347 = extractelement <4 x float> %tmp345, i32 1
+ %tmp348 = extractelement <4 x float> %tmp345, i32 2
+ %tmp349 = fadd float %tmp346, -5.000000e-01
+ %tmp350 = fadd float %tmp347, -5.000000e-01
+ %tmp351 = fadd float %tmp348, -5.000000e-01
+ %tmp352 = fmul float %tmp349, %tmp349
+ %tmp353 = fmul float %tmp350, %tmp350
+ %tmp354 = fadd float %tmp353, %tmp352
+ %tmp355 = fmul float %tmp351, %tmp351
+ %tmp356 = fadd float %tmp354, %tmp355
+ %tmp357 = call float @llvm.amdgcn.rsq.f32(float %tmp356)
+ %tmp358 = fmul float %tmp349, %tmp357
+ %tmp359 = fmul float %tmp350, %tmp357
+ %tmp360 = fmul float %tmp351, %tmp357
+ %tmp361 = bitcast float %tmp135 to i32
+ %tmp362 = bitcast float %tmp181 to i32
+ %tmp363 = bitcast float %tmp136 to i32
+ %tmp364 = bitcast float %tmp182 to i32
+ %tmp365 = bitcast float %temp28.1 to i32
+ %tmp366 = bitcast float %temp29.1 to i32
+ %tmp367 = insertelement <8 x i32> undef, i32 %tmp361, i32 0
+ %tmp368 = insertelement <8 x i32> %tmp367, i32 %tmp362, i32 1
+ %tmp369 = insertelement <8 x i32> %tmp368, i32 %tmp363, i32 2
+ %tmp370 = insertelement <8 x i32> %tmp369, i32 %tmp364, i32 3
+ %tmp371 = insertelement <8 x i32> %tmp370, i32 %tmp365, i32 4
+ %tmp372 = insertelement <8 x i32> %tmp371, i32 %tmp366, i32 5
+ %tmp373 = insertelement <8 x i32> %tmp372, i32 undef, i32 6
+ %tmp374 = insertelement <8 x i32> %tmp373, i32 undef, i32 7
+ %tmp375 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp374, <32 x i8> %tmp69, <16 x i8> %tmp71, i32 2)
+ %tmp376 = extractelement <4 x float> %tmp375, i32 0
+ %tmp377 = extractelement <4 x float> %tmp375, i32 1
+ %tmp378 = extractelement <4 x float> %tmp375, i32 2
+ %tmp379 = extractelement <4 x float> %tmp375, i32 3
+ %tmp380 = fsub float -0.000000e+00, %tmp94
+ %tmp381 = fsub float -0.000000e+00, %tmp95
+ %tmp382 = fsub float -0.000000e+00, %tmp96
+ %tmp383 = fmul float %tmp358, %tmp380
+ %tmp384 = fmul float %tmp359, %tmp381
+ %tmp385 = fadd float %tmp384, %tmp383
+ %tmp386 = fmul float %tmp360, %tmp382
+ %tmp387 = fadd float %tmp385, %tmp386
+ %tmp388 = fmul float %tmp387, %tmp358
+ %tmp389 = fmul float %tmp387, %tmp359
+ %tmp390 = fmul float %tmp387, %tmp360
+ %tmp391 = fmul float 2.000000e+00, %tmp388
+ %tmp392 = fmul float 2.000000e+00, %tmp389
+ %tmp393 = fmul float 2.000000e+00, %tmp390
+ %tmp394 = fsub float -0.000000e+00, %tmp391
+ %tmp395 = fadd float %tmp380, %tmp394
+ %tmp396 = fsub float -0.000000e+00, %tmp392
+ %tmp397 = fadd float %tmp381, %tmp396
+ %tmp398 = fsub float -0.000000e+00, %tmp393
+ %tmp399 = fadd float %tmp382, %tmp398
+ %tmp400 = fmul float %tmp395, %tmp97
+ %tmp401 = fmul float %tmp395, %tmp98
+ %tmp402 = fmul float %tmp395, %tmp99
+ %tmp403 = fmul float %tmp397, %tmp100
+ %tmp404 = fadd float %tmp403, %tmp400
+ %tmp405 = fmul float %tmp397, %tmp101
+ %tmp406 = fadd float %tmp405, %tmp401
+ %tmp407 = fmul float %tmp397, %tmp102
+ %tmp408 = fadd float %tmp407, %tmp402
+ %tmp409 = fmul float %tmp399, %tmp103
+ %tmp410 = fadd float %tmp409, %tmp404
+ %tmp411 = fmul float %tmp399, %tmp104
+ %tmp412 = fadd float %tmp411, %tmp406
+ %tmp413 = fmul float %tmp399, %tmp105
+ %tmp414 = fadd float %tmp413, %tmp408
+ %tmp415 = bitcast float %tmp135 to i32
+ %tmp416 = bitcast float %tmp181 to i32
+ %tmp417 = bitcast float %tmp136 to i32
+ %tmp418 = bitcast float %tmp182 to i32
+ %tmp419 = bitcast float %temp28.1 to i32
+ %tmp420 = bitcast float %temp29.1 to i32
+ %tmp421 = insertelement <8 x i32> undef, i32 %tmp415, i32 0
+ %tmp422 = insertelement <8 x i32> %tmp421, i32 %tmp416, i32 1
+ %tmp423 = insertelement <8 x i32> %tmp422, i32 %tmp417, i32 2
+ %tmp424 = insertelement <8 x i32> %tmp423, i32 %tmp418, i32 3
+ %tmp425 = insertelement <8 x i32> %tmp424, i32 %tmp419, i32 4
+ %tmp426 = insertelement <8 x i32> %tmp425, i32 %tmp420, i32 5
+ %tmp427 = insertelement <8 x i32> %tmp426, i32 undef, i32 6
+ %tmp428 = insertelement <8 x i32> %tmp427, i32 undef, i32 7
+ %tmp429 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp428, <32 x i8> %tmp85, <16 x i8> %tmp87, i32 2)
+ %tmp430 = extractelement <4 x float> %tmp429, i32 0
+ %tmp431 = extractelement <4 x float> %tmp429, i32 1
+ %tmp432 = extractelement <4 x float> %tmp429, i32 2
+ %tmp433 = fmul float %tmp47, %tmp410
+ %tmp434 = fmul float %tmp48, %tmp410
+ %tmp435 = fmul float %tmp49, %tmp410
+ %tmp436 = fmul float %tmp50, %tmp412
+ %tmp437 = fadd float %tmp436, %tmp433
+ %tmp438 = fmul float %tmp51, %tmp412
+ %tmp439 = fadd float %tmp438, %tmp434
+ %tmp440 = fmul float %tmp52, %tmp412
+ %tmp441 = fadd float %tmp440, %tmp435
+ %tmp442 = fmul float %tmp53, %tmp414
+ %tmp443 = fadd float %tmp442, %tmp437
+ %tmp444 = fmul float %tmp54, %tmp414
+ %tmp445 = fadd float %tmp444, %tmp439
+ %tmp446 = fmul float %tmp55, %tmp414
+ %tmp447 = fadd float %tmp446, %tmp441
+ %tmp448 = insertelement <4 x float> undef, float %tmp443, i32 0
+ %tmp449 = insertelement <4 x float> %tmp448, float %tmp445, i32 1
+ %tmp450 = insertelement <4 x float> %tmp449, float %tmp447, i32 2
+ %tmp451 = insertelement <4 x float> %tmp450, float %tmp194, i32 3
+ %tmp452 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %tmp451)
+ %tmp453 = extractelement <4 x float> %tmp452, i32 0
+ %tmp454 = extractelement <4 x float> %tmp452, i32 1
+ %tmp455 = extractelement <4 x float> %tmp452, i32 2
+ %tmp456 = extractelement <4 x float> %tmp452, i32 3
+ %tmp457 = call float @fabs(float %tmp455)
+ %tmp458 = fdiv float 1.000000e+00, %tmp457
+ %tmp459 = fmul float %tmp453, %tmp458
+ %tmp460 = fadd float %tmp459, 1.500000e+00
+ %tmp461 = fmul float %tmp454, %tmp458
+ %tmp462 = fadd float %tmp461, 1.500000e+00
+ %tmp463 = bitcast float %tmp462 to i32
+ %tmp464 = bitcast float %tmp460 to i32
+ %tmp465 = bitcast float %tmp456 to i32
+ %tmp466 = insertelement <4 x i32> undef, i32 %tmp463, i32 0
+ %tmp467 = insertelement <4 x i32> %tmp466, i32 %tmp464, i32 1
+ %tmp468 = insertelement <4 x i32> %tmp467, i32 %tmp465, i32 2
+ %tmp469 = insertelement <4 x i32> %tmp468, i32 undef, i32 3
+ %tmp470 = call <4 x float> @llvm.SI.sample.v4i32(<4 x i32> %tmp469, <32 x i8> %tmp89, <16 x i8> %tmp91, i32 4)
+ %tmp471 = extractelement <4 x float> %tmp470, i32 0
+ %tmp472 = extractelement <4 x float> %tmp470, i32 1
+ %tmp473 = extractelement <4 x float> %tmp470, i32 2
+ %tmp474 = fmul float %tmp430, %tmp471
+ %tmp475 = fadd float %tmp474, %tmp328
+ %tmp476 = fmul float %tmp431, %tmp472
+ %tmp477 = fadd float %tmp476, %tmp329
+ %tmp478 = fmul float %tmp432, %tmp473
+ %tmp479 = fadd float %tmp478, %tmp330
+ %tmp480 = fmul float %tmp106, %tmp106
+ %tmp481 = fmul float %tmp107, %tmp107
+ %tmp482 = fadd float %tmp481, %tmp480
+ %tmp483 = fmul float %tmp108, %tmp108
+ %tmp484 = fadd float %tmp482, %tmp483
+ %tmp485 = call float @llvm.amdgcn.rsq.f32(float %tmp484)
+ %tmp486 = fmul float %tmp106, %tmp485
+ %tmp487 = fmul float %tmp107, %tmp485
+ %tmp488 = fmul float %tmp108, %tmp485
+ %tmp489 = fmul float %tmp376, %tmp39
+ %tmp490 = fmul float %tmp377, %tmp40
+ %tmp491 = fmul float %tmp378, %tmp41
+ %tmp492 = fmul float %tmp358, %tmp486
+ %tmp493 = fmul float %tmp359, %tmp487
+ %tmp494 = fadd float %tmp493, %tmp492
+ %tmp495 = fmul float %tmp360, %tmp488
+ %tmp496 = fadd float %tmp494, %tmp495
+ %tmp497 = fmul float %tmp496, %tmp358
+ %tmp498 = fmul float %tmp496, %tmp359
+ %tmp499 = fmul float %tmp496, %tmp360
+ %tmp500 = fmul float 2.000000e+00, %tmp497
+ %tmp501 = fmul float 2.000000e+00, %tmp498
+ %tmp502 = fmul float 2.000000e+00, %tmp499
+ %tmp503 = fsub float -0.000000e+00, %tmp500
+ %tmp504 = fadd float %tmp486, %tmp503
+ %tmp505 = fsub float -0.000000e+00, %tmp501
+ %tmp506 = fadd float %tmp487, %tmp505
+ %tmp507 = fsub float -0.000000e+00, %tmp502
+ %tmp508 = fadd float %tmp488, %tmp507
+ %tmp509 = fmul float %tmp94, %tmp94
+ %tmp510 = fmul float %tmp95, %tmp95
+ %tmp511 = fadd float %tmp510, %tmp509
+ %tmp512 = fmul float %tmp96, %tmp96
+ %tmp513 = fadd float %tmp511, %tmp512
+ %tmp514 = call float @llvm.amdgcn.rsq.f32(float %tmp513)
+ %tmp515 = fmul float %tmp94, %tmp514
+ %tmp516 = fmul float %tmp95, %tmp514
+ %tmp517 = fmul float %tmp96, %tmp514
+ %tmp518 = fmul float %tmp504, %tmp515
+ %tmp519 = fmul float %tmp506, %tmp516
+ %tmp520 = fadd float %tmp519, %tmp518
+ %tmp521 = fmul float %tmp508, %tmp517
+ %tmp522 = fadd float %tmp520, %tmp521
+ %tmp523 = fsub float -0.000000e+00, %tmp522
+ %tmp524 = fcmp uge float %tmp523, 0.000000e+00
+ %tmp525 = select i1 %tmp524, float %tmp523, float 0.000000e+00
+ %tmp526 = fmul float %tmp42, %tmp379
+ %tmp527 = fadd float %tmp526, 1.000000e+00
+ %tmp528 = call float @llvm.pow.f32(float %tmp525, float %tmp527)
+ %tmp529 = fmul float %tmp475, %tmp36
+ %tmp530 = fmul float %tmp477, %tmp37
+ %tmp531 = fmul float %tmp479, %tmp38
+ %tmp532 = fmul float %tmp358, %tmp486
+ %tmp533 = fmul float %tmp359, %tmp487
+ %tmp534 = fadd float %tmp533, %tmp532
+ %tmp535 = fmul float %tmp360, %tmp488
+ %tmp536 = fadd float %tmp534, %tmp535
+ %tmp537 = fcmp uge float %tmp536, 0.000000e+00
+ %tmp538 = select i1 %tmp537, float %tmp536, float 0.000000e+00
+ %tmp539 = fmul float %tmp529, %tmp538
+ %tmp540 = fmul float %tmp530, %tmp538
+ %tmp541 = fmul float %tmp531, %tmp538
+ %tmp542 = fmul float %tmp489, %tmp528
+ %tmp543 = fadd float %tmp542, %tmp539
+ %tmp544 = fmul float %tmp490, %tmp528
+ %tmp545 = fadd float %tmp544, %tmp540
+ %tmp546 = fmul float %tmp491, %tmp528
+ %tmp547 = fadd float %tmp546, %tmp541
+ %tmp548 = fmul float %tmp475, %tmp33
+ %tmp549 = fmul float %tmp477, %tmp34
+ %tmp550 = fmul float %tmp479, %tmp35
+ %tmp551 = fmul float %tmp543, %tmp56
+ %tmp552 = fadd float %tmp551, %tmp548
+ %tmp553 = fmul float %tmp545, %tmp57
+ %tmp554 = fadd float %tmp553, %tmp549
+ %tmp555 = fmul float %tmp547, %tmp58
+ %tmp556 = fadd float %tmp555, %tmp550
+ %tmp557 = bitcast float %tmp135 to i32
+ %tmp558 = bitcast float %tmp181 to i32
+ %tmp559 = bitcast float %tmp136 to i32
+ %tmp560 = bitcast float %tmp182 to i32
+ %tmp561 = bitcast float %temp28.1 to i32
+ %tmp562 = bitcast float %temp29.1 to i32
+ %tmp563 = insertelement <8 x i32> undef, i32 %tmp557, i32 0
+ %tmp564 = insertelement <8 x i32> %tmp563, i32 %tmp558, i32 1
+ %tmp565 = insertelement <8 x i32> %tmp564, i32 %tmp559, i32 2
+ %tmp566 = insertelement <8 x i32> %tmp565, i32 %tmp560, i32 3
+ %tmp567 = insertelement <8 x i32> %tmp566, i32 %tmp561, i32 4
+ %tmp568 = insertelement <8 x i32> %tmp567, i32 %tmp562, i32 5
+ %tmp569 = insertelement <8 x i32> %tmp568, i32 undef, i32 6
+ %tmp570 = insertelement <8 x i32> %tmp569, i32 undef, i32 7
+ %tmp571 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp570, <32 x i8> %tmp73, <16 x i8> %tmp75, i32 2)
+ %tmp572 = extractelement <4 x float> %tmp571, i32 0
+ %tmp573 = extractelement <4 x float> %tmp571, i32 1
+ %tmp574 = extractelement <4 x float> %tmp571, i32 2
+ %tmp575 = fmul float %tmp572, %tmp43
+ %tmp576 = fadd float %tmp575, %tmp552
+ %tmp577 = fmul float %tmp573, %tmp44
+ %tmp578 = fadd float %tmp577, %tmp554
+ %tmp579 = fmul float %tmp574, %tmp45
+ %tmp580 = fadd float %tmp579, %tmp556
+ %tmp581 = call i32 @llvm.SI.packf16(float %tmp576, float %tmp578)
+ %tmp582 = bitcast i32 %tmp581 to float
+ %tmp583 = call i32 @llvm.SI.packf16(float %tmp580, float %tmp282)
+ %tmp584 = bitcast i32 %tmp583 to float
+ call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp582, float %tmp584, float %tmp582, float %tmp584)
ret void
ENDIF66: ; preds = %LOOP65
- %586 = bitcast float %temp28.1 to i32
- %587 = bitcast float %temp29.1 to i32
- %588 = insertelement <8 x i32> %237, i32 %586, i32 4
- %589 = insertelement <8 x i32> %588, i32 %587, i32 5
- %590 = insertelement <8 x i32> %589, i32 undef, i32 6
- %591 = insertelement <8 x i32> %590, i32 undef, i32 7
- %592 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %591, <32 x i8> %62, <16 x i8> %64, i32 2)
- %593 = extractelement <4 x float> %592, i32 3
- %594 = fcmp oge float %temp30.1, %593
- %595 = sext i1 %594 to i32
- %596 = bitcast i32 %595 to float
- %597 = bitcast float %596 to i32
- %598 = and i32 %597, 1065353216
- %599 = bitcast i32 %598 to float
- %600 = fmul float 5.000000e-01, %temp32.0
- %601 = fsub float -0.000000e+00, %600
- %602 = fmul float %599, %temp32.0
- %603 = fadd float %602, %601
- %604 = fmul float %214, %603
- %605 = fadd float %604, %temp28.1
- %606 = fmul float %215, %603
- %607 = fadd float %606, %temp29.1
- %608 = fmul float %216, %603
- %609 = fadd float %608, %temp30.1
- %610 = fadd float %temp24.1, 1.000000e+00
- %611 = fmul float %temp32.0, 5.000000e-01
+ %tmp585 = bitcast float %temp28.1 to i32
+ %tmp586 = bitcast float %temp29.1 to i32
+ %tmp587 = insertelement <8 x i32> %tmp236, i32 %tmp585, i32 4
+ %tmp588 = insertelement <8 x i32> %tmp587, i32 %tmp586, i32 5
+ %tmp589 = insertelement <8 x i32> %tmp588, i32 undef, i32 6
+ %tmp590 = insertelement <8 x i32> %tmp589, i32 undef, i32 7
+ %tmp591 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp590, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2)
+ %tmp592 = extractelement <4 x float> %tmp591, i32 3
+ %tmp593 = fcmp oge float %temp30.1, %tmp592
+ %tmp594 = sext i1 %tmp593 to i32
+ %tmp595 = bitcast i32 %tmp594 to float
+ %tmp596 = bitcast float %tmp595 to i32
+ %tmp597 = and i32 %tmp596, 1065353216
+ %tmp598 = bitcast i32 %tmp597 to float
+ %tmp599 = fmul float 5.000000e-01, %temp32.0
+ %tmp600 = fsub float -0.000000e+00, %tmp599
+ %tmp601 = fmul float %tmp598, %temp32.0
+ %tmp602 = fadd float %tmp601, %tmp600
+ %tmp603 = fmul float %tmp213, %tmp602
+ %tmp604 = fadd float %tmp603, %temp28.1
+ %tmp605 = fmul float %tmp214, %tmp602
+ %tmp606 = fadd float %tmp605, %temp29.1
+ %tmp607 = fmul float %tmp215, %tmp602
+ %tmp608 = fadd float %tmp607, %temp30.1
+ %tmp609 = fadd float %temp24.1, 1.000000e+00
+ %tmp610 = fmul float %temp32.0, 5.000000e-01
br label %LOOP65
}
; CHECK-LABEL: {{^}}main1:
; CHECK: s_endpgm
-define void @main1([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #1 {
+define void @main1([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
main_body:
- %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0
- %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !0
- %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 0)
- %24 = call float @llvm.SI.load.const(<16 x i8> %22, i32 4)
- %25 = call float @llvm.SI.load.const(<16 x i8> %22, i32 8)
- %26 = call float @llvm.SI.load.const(<16 x i8> %22, i32 12)
- %27 = call float @llvm.SI.load.const(<16 x i8> %22, i32 28)
- %28 = call float @llvm.SI.load.const(<16 x i8> %22, i32 48)
- %29 = call float @llvm.SI.load.const(<16 x i8> %22, i32 52)
- %30 = call float @llvm.SI.load.const(<16 x i8> %22, i32 56)
- %31 = call float @llvm.SI.load.const(<16 x i8> %22, i32 64)
- %32 = call float @llvm.SI.load.const(<16 x i8> %22, i32 68)
- %33 = call float @llvm.SI.load.const(<16 x i8> %22, i32 72)
- %34 = call float @llvm.SI.load.const(<16 x i8> %22, i32 76)
- %35 = call float @llvm.SI.load.const(<16 x i8> %22, i32 128)
- %36 = call float @llvm.SI.load.const(<16 x i8> %22, i32 132)
- %37 = call float @llvm.SI.load.const(<16 x i8> %22, i32 144)
- %38 = call float @llvm.SI.load.const(<16 x i8> %22, i32 148)
- %39 = call float @llvm.SI.load.const(<16 x i8> %22, i32 152)
- %40 = call float @llvm.SI.load.const(<16 x i8> %22, i32 160)
- %41 = call float @llvm.SI.load.const(<16 x i8> %22, i32 164)
- %42 = call float @llvm.SI.load.const(<16 x i8> %22, i32 168)
- %43 = call float @llvm.SI.load.const(<16 x i8> %22, i32 172)
- %44 = call float @llvm.SI.load.const(<16 x i8> %22, i32 176)
- %45 = call float @llvm.SI.load.const(<16 x i8> %22, i32 180)
- %46 = call float @llvm.SI.load.const(<16 x i8> %22, i32 184)
- %47 = call float @llvm.SI.load.const(<16 x i8> %22, i32 192)
- %48 = call float @llvm.SI.load.const(<16 x i8> %22, i32 196)
- %49 = call float @llvm.SI.load.const(<16 x i8> %22, i32 200)
- %50 = call float @llvm.SI.load.const(<16 x i8> %22, i32 208)
- %51 = call float @llvm.SI.load.const(<16 x i8> %22, i32 212)
- %52 = call float @llvm.SI.load.const(<16 x i8> %22, i32 216)
- %53 = call float @llvm.SI.load.const(<16 x i8> %22, i32 220)
- %54 = call float @llvm.SI.load.const(<16 x i8> %22, i32 236)
- %55 = call float @llvm.SI.load.const(<16 x i8> %22, i32 240)
- %56 = call float @llvm.SI.load.const(<16 x i8> %22, i32 244)
- %57 = call float @llvm.SI.load.const(<16 x i8> %22, i32 248)
- %58 = call float @llvm.SI.load.const(<16 x i8> %22, i32 252)
- %59 = call float @llvm.SI.load.const(<16 x i8> %22, i32 256)
- %60 = call float @llvm.SI.load.const(<16 x i8> %22, i32 260)
- %61 = call float @llvm.SI.load.const(<16 x i8> %22, i32 264)
- %62 = call float @llvm.SI.load.const(<16 x i8> %22, i32 268)
- %63 = call float @llvm.SI.load.const(<16 x i8> %22, i32 272)
- %64 = call float @llvm.SI.load.const(<16 x i8> %22, i32 276)
- %65 = call float @llvm.SI.load.const(<16 x i8> %22, i32 280)
- %66 = call float @llvm.SI.load.const(<16 x i8> %22, i32 284)
- %67 = call float @llvm.SI.load.const(<16 x i8> %22, i32 288)
- %68 = call float @llvm.SI.load.const(<16 x i8> %22, i32 292)
- %69 = call float @llvm.SI.load.const(<16 x i8> %22, i32 464)
- %70 = call float @llvm.SI.load.const(<16 x i8> %22, i32 468)
- %71 = call float @llvm.SI.load.const(<16 x i8> %22, i32 472)
- %72 = call float @llvm.SI.load.const(<16 x i8> %22, i32 496)
- %73 = call float @llvm.SI.load.const(<16 x i8> %22, i32 500)
- %74 = call float @llvm.SI.load.const(<16 x i8> %22, i32 504)
- %75 = call float @llvm.SI.load.const(<16 x i8> %22, i32 512)
- %76 = call float @llvm.SI.load.const(<16 x i8> %22, i32 516)
- %77 = call float @llvm.SI.load.const(<16 x i8> %22, i32 524)
- %78 = call float @llvm.SI.load.const(<16 x i8> %22, i32 532)
- %79 = call float @llvm.SI.load.const(<16 x i8> %22, i32 536)
- %80 = call float @llvm.SI.load.const(<16 x i8> %22, i32 540)
- %81 = call float @llvm.SI.load.const(<16 x i8> %22, i32 544)
- %82 = call float @llvm.SI.load.const(<16 x i8> %22, i32 548)
- %83 = call float @llvm.SI.load.const(<16 x i8> %22, i32 552)
- %84 = call float @llvm.SI.load.const(<16 x i8> %22, i32 556)
- %85 = call float @llvm.SI.load.const(<16 x i8> %22, i32 560)
- %86 = call float @llvm.SI.load.const(<16 x i8> %22, i32 564)
- %87 = call float @llvm.SI.load.const(<16 x i8> %22, i32 568)
- %88 = call float @llvm.SI.load.const(<16 x i8> %22, i32 572)
- %89 = call float @llvm.SI.load.const(<16 x i8> %22, i32 576)
- %90 = call float @llvm.SI.load.const(<16 x i8> %22, i32 580)
- %91 = call float @llvm.SI.load.const(<16 x i8> %22, i32 584)
- %92 = call float @llvm.SI.load.const(<16 x i8> %22, i32 588)
- %93 = call float @llvm.SI.load.const(<16 x i8> %22, i32 592)
- %94 = call float @llvm.SI.load.const(<16 x i8> %22, i32 596)
- %95 = call float @llvm.SI.load.const(<16 x i8> %22, i32 600)
- %96 = call float @llvm.SI.load.const(<16 x i8> %22, i32 604)
- %97 = call float @llvm.SI.load.const(<16 x i8> %22, i32 608)
- %98 = call float @llvm.SI.load.const(<16 x i8> %22, i32 612)
- %99 = call float @llvm.SI.load.const(<16 x i8> %22, i32 616)
- %100 = call float @llvm.SI.load.const(<16 x i8> %22, i32 624)
- %101 = call float @llvm.SI.load.const(<16 x i8> %22, i32 628)
- %102 = call float @llvm.SI.load.const(<16 x i8> %22, i32 632)
- %103 = call float @llvm.SI.load.const(<16 x i8> %22, i32 636)
- %104 = call float @llvm.SI.load.const(<16 x i8> %22, i32 640)
- %105 = call float @llvm.SI.load.const(<16 x i8> %22, i32 644)
- %106 = call float @llvm.SI.load.const(<16 x i8> %22, i32 648)
- %107 = call float @llvm.SI.load.const(<16 x i8> %22, i32 652)
- %108 = call float @llvm.SI.load.const(<16 x i8> %22, i32 656)
- %109 = call float @llvm.SI.load.const(<16 x i8> %22, i32 660)
- %110 = call float @llvm.SI.load.const(<16 x i8> %22, i32 664)
- %111 = call float @llvm.SI.load.const(<16 x i8> %22, i32 668)
- %112 = call float @llvm.SI.load.const(<16 x i8> %22, i32 672)
- %113 = call float @llvm.SI.load.const(<16 x i8> %22, i32 676)
- %114 = call float @llvm.SI.load.const(<16 x i8> %22, i32 680)
- %115 = call float @llvm.SI.load.const(<16 x i8> %22, i32 684)
- %116 = call float @llvm.SI.load.const(<16 x i8> %22, i32 688)
- %117 = call float @llvm.SI.load.const(<16 x i8> %22, i32 692)
- %118 = call float @llvm.SI.load.const(<16 x i8> %22, i32 696)
- %119 = call float @llvm.SI.load.const(<16 x i8> %22, i32 700)
- %120 = call float @llvm.SI.load.const(<16 x i8> %22, i32 704)
- %121 = call float @llvm.SI.load.const(<16 x i8> %22, i32 708)
- %122 = call float @llvm.SI.load.const(<16 x i8> %22, i32 712)
- %123 = call float @llvm.SI.load.const(<16 x i8> %22, i32 716)
- %124 = call float @llvm.SI.load.const(<16 x i8> %22, i32 864)
- %125 = call float @llvm.SI.load.const(<16 x i8> %22, i32 868)
- %126 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0
- %127 = load <32 x i8>, <32 x i8> addrspace(2)* %126, !tbaa !0
- %128 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0
- %129 = load <16 x i8>, <16 x i8> addrspace(2)* %128, !tbaa !0
- %130 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 1
- %131 = load <32 x i8>, <32 x i8> addrspace(2)* %130, !tbaa !0
- %132 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 1
- %133 = load <16 x i8>, <16 x i8> addrspace(2)* %132, !tbaa !0
- %134 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 2
- %135 = load <32 x i8>, <32 x i8> addrspace(2)* %134, !tbaa !0
- %136 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 2
- %137 = load <16 x i8>, <16 x i8> addrspace(2)* %136, !tbaa !0
- %138 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 3
- %139 = load <32 x i8>, <32 x i8> addrspace(2)* %138, !tbaa !0
- %140 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 3
- %141 = load <16 x i8>, <16 x i8> addrspace(2)* %140, !tbaa !0
- %142 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 4
- %143 = load <32 x i8>, <32 x i8> addrspace(2)* %142, !tbaa !0
- %144 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 4
- %145 = load <16 x i8>, <16 x i8> addrspace(2)* %144, !tbaa !0
- %146 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 5
- %147 = load <32 x i8>, <32 x i8> addrspace(2)* %146, !tbaa !0
- %148 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 5
- %149 = load <16 x i8>, <16 x i8> addrspace(2)* %148, !tbaa !0
- %150 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 6
- %151 = load <32 x i8>, <32 x i8> addrspace(2)* %150, !tbaa !0
- %152 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 6
- %153 = load <16 x i8>, <16 x i8> addrspace(2)* %152, !tbaa !0
- %154 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 7
- %155 = load <32 x i8>, <32 x i8> addrspace(2)* %154, !tbaa !0
- %156 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 7
- %157 = load <16 x i8>, <16 x i8> addrspace(2)* %156, !tbaa !0
- %158 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 8
- %159 = load <32 x i8>, <32 x i8> addrspace(2)* %158, !tbaa !0
- %160 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 8
- %161 = load <16 x i8>, <16 x i8> addrspace(2)* %160, !tbaa !0
- %162 = fcmp ugt float %17, 0.000000e+00
- %163 = select i1 %162, float 1.000000e+00, float 0.000000e+00
- %164 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %4, <2 x i32> %6)
- %165 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %4, <2 x i32> %6)
- %166 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %4, <2 x i32> %6)
- %167 = call float @llvm.SI.fs.interp(i32 3, i32 0, i32 %4, <2 x i32> %6)
- %168 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %4, <2 x i32> %6)
- %169 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %4, <2 x i32> %6)
- %170 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %4, <2 x i32> %6)
- %171 = call float @llvm.SI.fs.interp(i32 3, i32 1, i32 %4, <2 x i32> %6)
- %172 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %4, <2 x i32> %6)
- %173 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %4, <2 x i32> %6)
- %174 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %4, <2 x i32> %6)
- %175 = call float @llvm.SI.fs.interp(i32 3, i32 2, i32 %4, <2 x i32> %6)
- %176 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %4, <2 x i32> %6)
- %177 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %4, <2 x i32> %6)
- %178 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %4, <2 x i32> %6)
- %179 = call float @llvm.SI.fs.interp(i32 3, i32 3, i32 %4, <2 x i32> %6)
- %180 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %4, <2 x i32> %6)
- %181 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %4, <2 x i32> %6)
- %182 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %4, <2 x i32> %6)
- %183 = call float @llvm.SI.fs.interp(i32 3, i32 4, i32 %4, <2 x i32> %6)
- %184 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %4, <2 x i32> %6)
- %185 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %4, <2 x i32> %6)
- %186 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %4, <2 x i32> %6)
- %187 = call float @llvm.SI.fs.interp(i32 3, i32 5, i32 %4, <2 x i32> %6)
- %188 = call float @llvm.SI.fs.interp(i32 0, i32 6, i32 %4, <2 x i32> %6)
- %189 = call float @llvm.SI.fs.interp(i32 1, i32 6, i32 %4, <2 x i32> %6)
- %190 = call float @llvm.SI.fs.interp(i32 2, i32 6, i32 %4, <2 x i32> %6)
- %191 = call float @llvm.SI.fs.interp(i32 3, i32 6, i32 %4, <2 x i32> %6)
- %192 = call float @llvm.SI.fs.interp(i32 0, i32 7, i32 %4, <2 x i32> %6)
- %193 = call float @llvm.SI.fs.interp(i32 1, i32 7, i32 %4, <2 x i32> %6)
- %194 = call float @llvm.SI.fs.interp(i32 2, i32 7, i32 %4, <2 x i32> %6)
- %195 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %4, <2 x i32> %6)
- %196 = fmul float %14, %124
- %197 = fadd float %196, %125
- %198 = call float @llvm.AMDIL.clamp.(float %163, float 0.000000e+00, float 1.000000e+00)
- %199 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
- %200 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
- %201 = call float @llvm.AMDIL.clamp.(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00)
- %202 = bitcast float %198 to i32
- %203 = icmp ne i32 %202, 0
- %. = select i1 %203, float -1.000000e+00, float 1.000000e+00
- %204 = fsub float -0.000000e+00, %164
- %205 = fadd float %44, %204
- %206 = fsub float -0.000000e+00, %165
- %207 = fadd float %45, %206
- %208 = fsub float -0.000000e+00, %166
- %209 = fadd float %46, %208
- %210 = fmul float %205, %205
- %211 = fmul float %207, %207
- %212 = fadd float %211, %210
- %213 = fmul float %209, %209
- %214 = fadd float %212, %213
- %215 = call float @llvm.amdgcn.rsq.f32(float %214)
- %216 = fmul float %205, %215
- %217 = fmul float %207, %215
- %218 = fmul float %209, %215
- %219 = fmul float %., %54
- %220 = fmul float %13, %47
- %221 = fmul float %197, %48
- %222 = bitcast float %174 to i32
- %223 = bitcast float %175 to i32
- %224 = insertelement <2 x i32> undef, i32 %222, i32 0
- %225 = insertelement <2 x i32> %224, i32 %223, i32 1
- %226 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %225, <32 x i8> %131, <16 x i8> %133, i32 2)
- %227 = extractelement <4 x float> %226, i32 0
- %228 = extractelement <4 x float> %226, i32 1
- %229 = extractelement <4 x float> %226, i32 2
- %230 = extractelement <4 x float> %226, i32 3
- %231 = fmul float %227, 0x4012611180000000
- %232 = fmul float %228, 0x4012611180000000
- %233 = fmul float %229, 0x4012611180000000
- %one.sub.a.i = fsub float 1.000000e+00, %27
- %result.i = fadd float %231, %one.sub.a.i
- %one.sub.a.i43 = fsub float 1.000000e+00, %27
- %result.i44 = fadd float %232, %one.sub.a.i43
- %one.sub.a.i41 = fsub float 1.000000e+00, %27
- %result.i42 = fadd float %233, %one.sub.a.i41
- %234 = fmul float %216, %184
- %235 = fmul float %217, %185
- %236 = fadd float %235, %234
- %237 = fmul float %218, %186
- %238 = fadd float %236, %237
- %239 = fmul float %216, %187
- %240 = fmul float %217, %188
- %241 = fadd float %240, %239
- %242 = fmul float %218, %189
- %243 = fadd float %241, %242
- %244 = fmul float %216, %190
- %245 = fmul float %217, %191
- %246 = fadd float %245, %244
- %247 = fmul float %218, %192
- %248 = fadd float %246, %247
- %249 = call float @llvm.AMDIL.clamp.(float %248, float 0.000000e+00, float 1.000000e+00)
- %250 = fmul float %214, 0x3F5A36E2E0000000
- %251 = call float @llvm.AMDIL.clamp.(float %250, float 0.000000e+00, float 1.000000e+00)
- %252 = fsub float -0.000000e+00, %251
- %253 = fadd float 1.000000e+00, %252
- %254 = call float @llvm.pow.f32(float %249, float 2.500000e-01)
- %255 = fmul float %39, %254
- %256 = fmul float %238, %255
- %257 = fmul float %243, %255
- %258 = fmul float %256, %230
- %259 = fmul float %257, %230
- %260 = fadd float %249, 0x3EE4F8B580000000
- %261 = fsub float -0.000000e+00, %249
- %262 = fadd float 1.000000e+00, %261
- %263 = fmul float 1.200000e+01, %262
- %264 = fadd float %263, 4.000000e+00
- %265 = fsub float -0.000000e+00, %264
- %266 = fmul float %265, %260
- %267 = fsub float -0.000000e+00, %264
- %268 = fmul float %267, %260
- %269 = fsub float -0.000000e+00, %264
- %270 = fmul float %269, %260
- %271 = fdiv float 1.000000e+00, %266
- %272 = fdiv float 1.000000e+00, %268
- %273 = fdiv float 1.000000e+00, %270
- %274 = fmul float %258, %271
- %275 = fmul float %259, %272
- %276 = fmul float %260, %273
+ %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0
+ %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+ %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 0)
+ %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 4)
+ %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 8)
+ %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 12)
+ %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 28)
+ %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 48)
+ %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 52)
+ %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 56)
+ %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 64)
+ %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 68)
+ %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 72)
+ %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 76)
+ %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 128)
+ %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 132)
+ %tmp36 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 144)
+ %tmp37 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 148)
+ %tmp38 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 152)
+ %tmp39 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 160)
+ %tmp40 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 164)
+ %tmp41 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 168)
+ %tmp42 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 172)
+ %tmp43 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 176)
+ %tmp44 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 180)
+ %tmp45 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 184)
+ %tmp46 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 192)
+ %tmp47 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 196)
+ %tmp48 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 200)
+ %tmp49 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 208)
+ %tmp50 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 212)
+ %tmp51 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 216)
+ %tmp52 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 220)
+ %tmp53 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 236)
+ %tmp54 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 240)
+ %tmp55 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 244)
+ %tmp56 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 248)
+ %tmp57 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 252)
+ %tmp58 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 256)
+ %tmp59 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 260)
+ %tmp60 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 264)
+ %tmp61 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 268)
+ %tmp62 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 272)
+ %tmp63 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 276)
+ %tmp64 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 280)
+ %tmp65 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 284)
+ %tmp66 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 288)
+ %tmp67 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 292)
+ %tmp68 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 464)
+ %tmp69 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 468)
+ %tmp70 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 472)
+ %tmp71 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 496)
+ %tmp72 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 500)
+ %tmp73 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 504)
+ %tmp74 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 512)
+ %tmp75 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 516)
+ %tmp76 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 524)
+ %tmp77 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 532)
+ %tmp78 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 536)
+ %tmp79 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 540)
+ %tmp80 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 544)
+ %tmp81 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 548)
+ %tmp82 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 552)
+ %tmp83 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 556)
+ %tmp84 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 560)
+ %tmp85 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 564)
+ %tmp86 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 568)
+ %tmp87 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 572)
+ %tmp88 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 576)
+ %tmp89 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 580)
+ %tmp90 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 584)
+ %tmp91 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 588)
+ %tmp92 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 592)
+ %tmp93 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 596)
+ %tmp94 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 600)
+ %tmp95 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 604)
+ %tmp96 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 608)
+ %tmp97 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 612)
+ %tmp98 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 616)
+ %tmp99 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 624)
+ %tmp100 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 628)
+ %tmp101 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 632)
+ %tmp102 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 636)
+ %tmp103 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 640)
+ %tmp104 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 644)
+ %tmp105 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 648)
+ %tmp106 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 652)
+ %tmp107 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 656)
+ %tmp108 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 660)
+ %tmp109 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 664)
+ %tmp110 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 668)
+ %tmp111 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 672)
+ %tmp112 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 676)
+ %tmp113 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 680)
+ %tmp114 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 684)
+ %tmp115 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 688)
+ %tmp116 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 692)
+ %tmp117 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 696)
+ %tmp118 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 700)
+ %tmp119 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 704)
+ %tmp120 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 708)
+ %tmp121 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 712)
+ %tmp122 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 716)
+ %tmp123 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 864)
+ %tmp124 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 868)
+ %tmp125 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0
+ %tmp126 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp125, !tbaa !0
+ %tmp127 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0
+ %tmp128 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp127, !tbaa !0
+ %tmp129 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 1
+ %tmp130 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp129, !tbaa !0
+ %tmp131 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 1
+ %tmp132 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp131, !tbaa !0
+ %tmp133 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 2
+ %tmp134 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp133, !tbaa !0
+ %tmp135 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 2
+ %tmp136 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp135, !tbaa !0
+ %tmp137 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 3
+ %tmp138 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp137, !tbaa !0
+ %tmp139 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 3
+ %tmp140 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp139, !tbaa !0
+ %tmp141 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 4
+ %tmp142 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp141, !tbaa !0
+ %tmp143 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 4
+ %tmp144 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp143, !tbaa !0
+ %tmp145 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 5
+ %tmp146 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp145, !tbaa !0
+ %tmp147 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 5
+ %tmp148 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp147, !tbaa !0
+ %tmp149 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 6
+ %tmp150 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp149, !tbaa !0
+ %tmp151 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 6
+ %tmp152 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp151, !tbaa !0
+ %tmp153 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 7
+ %tmp154 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp153, !tbaa !0
+ %tmp155 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 7
+ %tmp156 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp155, !tbaa !0
+ %tmp157 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 8
+ %tmp158 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp157, !tbaa !0
+ %tmp159 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 8
+ %tmp160 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp159, !tbaa !0
+ %tmp161 = fcmp ugt float %arg17, 0.000000e+00
+ %tmp162 = select i1 %tmp161, float 1.000000e+00, float 0.000000e+00
+ %tmp163 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6)
+ %tmp164 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6)
+ %tmp165 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %arg4, <2 x i32> %arg6)
+ %tmp166 = call float @llvm.SI.fs.interp(i32 3, i32 0, i32 %arg4, <2 x i32> %arg6)
+ %tmp167 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg4, <2 x i32> %arg6)
+ %tmp168 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg4, <2 x i32> %arg6)
+ %tmp169 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg4, <2 x i32> %arg6)
+ %tmp170 = call float @llvm.SI.fs.interp(i32 3, i32 1, i32 %arg4, <2 x i32> %arg6)
+ %tmp171 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %arg4, <2 x i32> %arg6)
+ %tmp172 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %arg4, <2 x i32> %arg6)
+ %tmp173 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %arg4, <2 x i32> %arg6)
+ %tmp174 = call float @llvm.SI.fs.interp(i32 3, i32 2, i32 %arg4, <2 x i32> %arg6)
+ %tmp175 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %arg4, <2 x i32> %arg6)
+ %tmp176 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %arg4, <2 x i32> %arg6)
+ %tmp177 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %arg4, <2 x i32> %arg6)
+ %tmp178 = call float @llvm.SI.fs.interp(i32 3, i32 3, i32 %arg4, <2 x i32> %arg6)
+ %tmp179 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %arg4, <2 x i32> %arg6)
+ %tmp180 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %arg4, <2 x i32> %arg6)
+ %tmp181 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %arg4, <2 x i32> %arg6)
+ %tmp182 = call float @llvm.SI.fs.interp(i32 3, i32 4, i32 %arg4, <2 x i32> %arg6)
+ %tmp183 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %arg4, <2 x i32> %arg6)
+ %tmp184 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %arg4, <2 x i32> %arg6)
+ %tmp185 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %arg4, <2 x i32> %arg6)
+ %tmp186 = call float @llvm.SI.fs.interp(i32 3, i32 5, i32 %arg4, <2 x i32> %arg6)
+ %tmp187 = call float @llvm.SI.fs.interp(i32 0, i32 6, i32 %arg4, <2 x i32> %arg6)
+ %tmp188 = call float @llvm.SI.fs.interp(i32 1, i32 6, i32 %arg4, <2 x i32> %arg6)
+ %tmp189 = call float @llvm.SI.fs.interp(i32 2, i32 6, i32 %arg4, <2 x i32> %arg6)
+ %tmp190 = call float @llvm.SI.fs.interp(i32 3, i32 6, i32 %arg4, <2 x i32> %arg6)
+ %tmp191 = call float @llvm.SI.fs.interp(i32 0, i32 7, i32 %arg4, <2 x i32> %arg6)
+ %tmp192 = call float @llvm.SI.fs.interp(i32 1, i32 7, i32 %arg4, <2 x i32> %arg6)
+ %tmp193 = call float @llvm.SI.fs.interp(i32 2, i32 7, i32 %arg4, <2 x i32> %arg6)
+ %tmp194 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %arg4, <2 x i32> %arg6)
+ %tmp195 = fmul float %arg14, %tmp123
+ %tmp196 = fadd float %tmp195, %tmp124
+ %tmp197 = call float @llvm.AMDIL.clamp.(float %tmp162, float 0.000000e+00, float 1.000000e+00)
+ %tmp198 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
+ %tmp199 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
+ %tmp200 = call float @llvm.AMDIL.clamp.(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00)
+ %tmp201 = bitcast float %tmp197 to i32
+ %tmp202 = icmp ne i32 %tmp201, 0
+ %. = select i1 %tmp202, float -1.000000e+00, float 1.000000e+00
+ %tmp203 = fsub float -0.000000e+00, %tmp163
+ %tmp204 = fadd float %tmp43, %tmp203
+ %tmp205 = fsub float -0.000000e+00, %tmp164
+ %tmp206 = fadd float %tmp44, %tmp205
+ %tmp207 = fsub float -0.000000e+00, %tmp165
+ %tmp208 = fadd float %tmp45, %tmp207
+ %tmp209 = fmul float %tmp204, %tmp204
+ %tmp210 = fmul float %tmp206, %tmp206
+ %tmp211 = fadd float %tmp210, %tmp209
+ %tmp212 = fmul float %tmp208, %tmp208
+ %tmp213 = fadd float %tmp211, %tmp212
+ %tmp214 = call float @llvm.amdgcn.rsq.f32(float %tmp213)
+ %tmp215 = fmul float %tmp204, %tmp214
+ %tmp216 = fmul float %tmp206, %tmp214
+ %tmp217 = fmul float %tmp208, %tmp214
+ %tmp218 = fmul float %., %tmp53
+ %tmp219 = fmul float %arg13, %tmp46
+ %tmp220 = fmul float %tmp196, %tmp47
+ %tmp221 = bitcast float %tmp173 to i32
+ %tmp222 = bitcast float %tmp174 to i32
+ %tmp223 = insertelement <2 x i32> undef, i32 %tmp221, i32 0
+ %tmp224 = insertelement <2 x i32> %tmp223, i32 %tmp222, i32 1
+ %tmp225 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp224, <32 x i8> %tmp130, <16 x i8> %tmp132, i32 2)
+ %tmp226 = extractelement <4 x float> %tmp225, i32 0
+ %tmp227 = extractelement <4 x float> %tmp225, i32 1
+ %tmp228 = extractelement <4 x float> %tmp225, i32 2
+ %tmp229 = extractelement <4 x float> %tmp225, i32 3
+ %tmp230 = fmul float %tmp226, 0x4012611180000000
+ %tmp231 = fmul float %tmp227, 0x4012611180000000
+ %tmp232 = fmul float %tmp228, 0x4012611180000000
+ %one.sub.a.i = fsub float 1.000000e+00, %tmp26
+ %result.i = fadd float %tmp230, %one.sub.a.i
+ %one.sub.a.i43 = fsub float 1.000000e+00, %tmp26
+ %result.i44 = fadd float %tmp231, %one.sub.a.i43
+ %one.sub.a.i41 = fsub float 1.000000e+00, %tmp26
+ %result.i42 = fadd float %tmp232, %one.sub.a.i41
+ %tmp233 = fmul float %tmp215, %tmp183
+ %tmp234 = fmul float %tmp216, %tmp184
+ %tmp235 = fadd float %tmp234, %tmp233
+ %tmp236 = fmul float %tmp217, %tmp185
+ %tmp237 = fadd float %tmp235, %tmp236
+ %tmp238 = fmul float %tmp215, %tmp186
+ %tmp239 = fmul float %tmp216, %tmp187
+ %tmp240 = fadd float %tmp239, %tmp238
+ %tmp241 = fmul float %tmp217, %tmp188
+ %tmp242 = fadd float %tmp240, %tmp241
+ %tmp243 = fmul float %tmp215, %tmp189
+ %tmp244 = fmul float %tmp216, %tmp190
+ %tmp245 = fadd float %tmp244, %tmp243
+ %tmp246 = fmul float %tmp217, %tmp191
+ %tmp247 = fadd float %tmp245, %tmp246
+ %tmp248 = call float @llvm.AMDIL.clamp.(float %tmp247, float 0.000000e+00, float 1.000000e+00)
+ %tmp249 = fmul float %tmp213, 0x3F5A36E2E0000000
+ %tmp250 = call float @llvm.AMDIL.clamp.(float %tmp249, float 0.000000e+00, float 1.000000e+00)
+ %tmp251 = fsub float -0.000000e+00, %tmp250
+ %tmp252 = fadd float 1.000000e+00, %tmp251
+ %tmp253 = call float @llvm.pow.f32(float %tmp248, float 2.500000e-01)
+ %tmp254 = fmul float %tmp38, %tmp253
+ %tmp255 = fmul float %tmp237, %tmp254
+ %tmp256 = fmul float %tmp242, %tmp254
+ %tmp257 = fmul float %tmp255, %tmp229
+ %tmp258 = fmul float %tmp256, %tmp229
+ %tmp259 = fadd float %tmp248, 0x3EE4F8B580000000
+ %tmp260 = fsub float -0.000000e+00, %tmp248
+ %tmp261 = fadd float 1.000000e+00, %tmp260
+ %tmp262 = fmul float 1.200000e+01, %tmp261
+ %tmp263 = fadd float %tmp262, 4.000000e+00
+ %tmp264 = fsub float -0.000000e+00, %tmp263
+ %tmp265 = fmul float %tmp264, %tmp259
+ %tmp266 = fsub float -0.000000e+00, %tmp263
+ %tmp267 = fmul float %tmp266, %tmp259
+ %tmp268 = fsub float -0.000000e+00, %tmp263
+ %tmp269 = fmul float %tmp268, %tmp259
+ %tmp270 = fdiv float 1.000000e+00, %tmp265
+ %tmp271 = fdiv float 1.000000e+00, %tmp267
+ %tmp272 = fdiv float 1.000000e+00, %tmp269
+ %tmp273 = fmul float %tmp257, %tmp270
+ %tmp274 = fmul float %tmp258, %tmp271
+ %tmp275 = fmul float %tmp259, %tmp272
br label %LOOP
LOOP: ; preds = %LOOP, %main_body
- %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %289, %LOOP ]
- %temp168.0 = phi float [ %176, %main_body ], [ %285, %LOOP ]
- %temp169.0 = phi float [ %177, %main_body ], [ %286, %LOOP ]
- %temp170.0 = phi float [ %253, %main_body ], [ %287, %LOOP ]
- %277 = bitcast float %temp168.0 to i32
- %278 = bitcast float %temp169.0 to i32
- %279 = insertelement <4 x i32> undef, i32 %277, i32 0
- %280 = insertelement <4 x i32> %279, i32 %278, i32 1
- %281 = insertelement <4 x i32> %280, i32 0, i32 2
- %282 = insertelement <4 x i32> %281, i32 undef, i32 3
- %283 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %282, <32 x i8> %147, <16 x i8> %149, i32 2)
- %284 = extractelement <4 x float> %283, i32 3
- %285 = fadd float %temp168.0, %274
- %286 = fadd float %temp169.0, %275
- %287 = fadd float %temp170.0, %276
- %288 = fsub float -0.000000e+00, %284
- %289 = fadd float %287, %288
- %290 = fcmp oge float 0.000000e+00, %289
- %291 = sext i1 %290 to i32
- %292 = bitcast i32 %291 to float
- %293 = bitcast float %292 to i32
- %294 = icmp ne i32 %293, 0
- br i1 %294, label %IF189, label %LOOP
+ %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp288, %LOOP ]
+ %temp168.0 = phi float [ %tmp175, %main_body ], [ %tmp284, %LOOP ]
+ %temp169.0 = phi float [ %tmp176, %main_body ], [ %tmp285, %LOOP ]
+ %temp170.0 = phi float [ %tmp252, %main_body ], [ %tmp286, %LOOP ]
+ %tmp276 = bitcast float %temp168.0 to i32
+ %tmp277 = bitcast float %temp169.0 to i32
+ %tmp278 = insertelement <4 x i32> undef, i32 %tmp276, i32 0
+ %tmp279 = insertelement <4 x i32> %tmp278, i32 %tmp277, i32 1
+ %tmp280 = insertelement <4 x i32> %tmp279, i32 0, i32 2
+ %tmp281 = insertelement <4 x i32> %tmp280, i32 undef, i32 3
+ %tmp282 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp281, <32 x i8> %tmp146, <16 x i8> %tmp148, i32 2)
+ %tmp283 = extractelement <4 x float> %tmp282, i32 3
+ %tmp284 = fadd float %temp168.0, %tmp273
+ %tmp285 = fadd float %temp169.0, %tmp274
+ %tmp286 = fadd float %temp170.0, %tmp275
+ %tmp287 = fsub float -0.000000e+00, %tmp283
+ %tmp288 = fadd float %tmp286, %tmp287
+ %tmp289 = fcmp oge float 0.000000e+00, %tmp288
+ %tmp290 = sext i1 %tmp289 to i32
+ %tmp291 = bitcast i32 %tmp290 to float
+ %tmp292 = bitcast float %tmp291 to i32
+ %tmp293 = icmp ne i32 %tmp292, 0
+ br i1 %tmp293, label %IF189, label %LOOP
IF189: ; preds = %LOOP
- %295 = extractelement <4 x float> %283, i32 0
- %296 = extractelement <4 x float> %283, i32 1
- %297 = extractelement <4 x float> %283, i32 2
- %298 = fsub float -0.000000e+00, %289
- %299 = fadd float %temp144.0, %298
- %300 = fdiv float 1.000000e+00, %299
- %301 = fmul float %289, %300
- %302 = fadd float %301, -1.000000e+00
- %303 = fmul float %302, %274
- %304 = fadd float %303, %285
- %305 = fmul float %302, %275
- %306 = fadd float %305, %286
- %307 = fsub float -0.000000e+00, %176
- %308 = fadd float %304, %307
- %309 = fsub float -0.000000e+00, %177
- %310 = fadd float %306, %309
- %311 = fadd float %176, %308
- %312 = fadd float %177, %310
- %313 = fmul float %308, %67
- %314 = fmul float %310, %68
- %315 = fmul float %313, %55
- %316 = fmul float %313, %56
- %317 = fmul float %314, %57
- %318 = fadd float %317, %315
- %319 = fmul float %314, %58
- %320 = fadd float %319, %316
- %321 = fadd float %178, %318
- %322 = fadd float %179, %320
- %323 = fmul float %313, %59
- %324 = fmul float %313, %60
- %325 = fmul float %313, %61
- %326 = fmul float %313, %62
- %327 = fmul float %314, %63
- %328 = fadd float %327, %323
- %329 = fmul float %314, %64
- %330 = fadd float %329, %324
- %331 = fmul float %314, %65
- %332 = fadd float %331, %325
- %333 = fmul float %314, %66
- %334 = fadd float %333, %326
- %335 = fadd float %168, %328
- %336 = fadd float %169, %330
- %337 = fadd float %170, %332
- %338 = fadd float %171, %334
- %339 = bitcast float %335 to i32
- %340 = bitcast float %336 to i32
- %341 = insertelement <2 x i32> undef, i32 %339, i32 0
- %342 = insertelement <2 x i32> %341, i32 %340, i32 1
- %343 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %342, <32 x i8> %135, <16 x i8> %137, i32 2)
- %344 = extractelement <4 x float> %343, i32 0
- %345 = extractelement <4 x float> %343, i32 1
- %346 = extractelement <4 x float> %343, i32 2
- %347 = extractelement <4 x float> %343, i32 3
- %348 = fmul float %344, %23
- %349 = fmul float %345, %24
- %350 = fmul float %346, %25
- %351 = fmul float %347, %26
- %352 = fmul float %348, %180
- %353 = fmul float %349, %181
- %354 = fmul float %350, %182
- %355 = fmul float %351, %183
- %356 = fsub float -0.000000e+00, %347
- %357 = fadd float 1.000000e+00, %356
- %358 = fmul float %357, %49
- %one.sub.a.i37 = fsub float 1.000000e+00, %358
- %one.sub.ac.i38 = fmul float %one.sub.a.i37, %352
- %mul.i39 = fmul float %344, %352
+ %tmp294 = extractelement <4 x float> %tmp282, i32 0
+ %tmp295 = extractelement <4 x float> %tmp282, i32 1
+ %tmp296 = extractelement <4 x float> %tmp282, i32 2
+ %tmp297 = fsub float -0.000000e+00, %tmp288
+ %tmp298 = fadd float %temp144.0, %tmp297
+ %tmp299 = fdiv float 1.000000e+00, %tmp298
+ %tmp300 = fmul float %tmp288, %tmp299
+ %tmp301 = fadd float %tmp300, -1.000000e+00
+ %tmp302 = fmul float %tmp301, %tmp273
+ %tmp303 = fadd float %tmp302, %tmp284
+ %tmp304 = fmul float %tmp301, %tmp274
+ %tmp305 = fadd float %tmp304, %tmp285
+ %tmp306 = fsub float -0.000000e+00, %tmp175
+ %tmp307 = fadd float %tmp303, %tmp306
+ %tmp308 = fsub float -0.000000e+00, %tmp176
+ %tmp309 = fadd float %tmp305, %tmp308
+ %tmp310 = fadd float %tmp175, %tmp307
+ %tmp311 = fadd float %tmp176, %tmp309
+ %tmp312 = fmul float %tmp307, %tmp66
+ %tmp313 = fmul float %tmp309, %tmp67
+ %tmp314 = fmul float %tmp312, %tmp54
+ %tmp315 = fmul float %tmp312, %tmp55
+ %tmp316 = fmul float %tmp313, %tmp56
+ %tmp317 = fadd float %tmp316, %tmp314
+ %tmp318 = fmul float %tmp313, %tmp57
+ %tmp319 = fadd float %tmp318, %tmp315
+ %tmp320 = fadd float %tmp177, %tmp317
+ %tmp321 = fadd float %tmp178, %tmp319
+ %tmp322 = fmul float %tmp312, %tmp58
+ %tmp323 = fmul float %tmp312, %tmp59
+ %tmp324 = fmul float %tmp312, %tmp60
+ %tmp325 = fmul float %tmp312, %tmp61
+ %tmp326 = fmul float %tmp313, %tmp62
+ %tmp327 = fadd float %tmp326, %tmp322
+ %tmp328 = fmul float %tmp313, %tmp63
+ %tmp329 = fadd float %tmp328, %tmp323
+ %tmp330 = fmul float %tmp313, %tmp64
+ %tmp331 = fadd float %tmp330, %tmp324
+ %tmp332 = fmul float %tmp313, %tmp65
+ %tmp333 = fadd float %tmp332, %tmp325
+ %tmp334 = fadd float %tmp167, %tmp327
+ %tmp335 = fadd float %tmp168, %tmp329
+ %tmp336 = fadd float %tmp169, %tmp331
+ %tmp337 = fadd float %tmp170, %tmp333
+ %tmp338 = bitcast float %tmp334 to i32
+ %tmp339 = bitcast float %tmp335 to i32
+ %tmp340 = insertelement <2 x i32> undef, i32 %tmp338, i32 0
+ %tmp341 = insertelement <2 x i32> %tmp340, i32 %tmp339, i32 1
+ %tmp342 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp341, <32 x i8> %tmp134, <16 x i8> %tmp136, i32 2)
+ %tmp343 = extractelement <4 x float> %tmp342, i32 0
+ %tmp344 = extractelement <4 x float> %tmp342, i32 1
+ %tmp345 = extractelement <4 x float> %tmp342, i32 2
+ %tmp346 = extractelement <4 x float> %tmp342, i32 3
+ %tmp347 = fmul float %tmp343, %tmp22
+ %tmp348 = fmul float %tmp344, %tmp23
+ %tmp349 = fmul float %tmp345, %tmp24
+ %tmp350 = fmul float %tmp346, %tmp25
+ %tmp351 = fmul float %tmp347, %tmp179
+ %tmp352 = fmul float %tmp348, %tmp180
+ %tmp353 = fmul float %tmp349, %tmp181
+ %tmp354 = fmul float %tmp350, %tmp182
+ %tmp355 = fsub float -0.000000e+00, %tmp346
+ %tmp356 = fadd float 1.000000e+00, %tmp355
+ %tmp357 = fmul float %tmp356, %tmp48
+ %one.sub.a.i37 = fsub float 1.000000e+00, %tmp357
+ %one.sub.ac.i38 = fmul float %one.sub.a.i37, %tmp351
+ %mul.i39 = fmul float %tmp343, %tmp351
%result.i40 = fadd float %mul.i39, %one.sub.ac.i38
- %one.sub.a.i33 = fsub float 1.000000e+00, %358
- %one.sub.ac.i34 = fmul float %one.sub.a.i33, %353
- %mul.i35 = fmul float %345, %353
+ %one.sub.a.i33 = fsub float 1.000000e+00, %tmp357
+ %one.sub.ac.i34 = fmul float %one.sub.a.i33, %tmp352
+ %mul.i35 = fmul float %tmp344, %tmp352
%result.i36 = fadd float %mul.i35, %one.sub.ac.i34
- %one.sub.a.i29 = fsub float 1.000000e+00, %358
- %one.sub.ac.i30 = fmul float %one.sub.a.i29, %354
- %mul.i31 = fmul float %346, %354
+ %one.sub.a.i29 = fsub float 1.000000e+00, %tmp357
+ %one.sub.ac.i30 = fmul float %one.sub.a.i29, %tmp353
+ %mul.i31 = fmul float %tmp345, %tmp353
%result.i32 = fadd float %mul.i31, %one.sub.ac.i30
- %359 = bitcast float %337 to i32
- %360 = bitcast float %338 to i32
- %361 = insertelement <2 x i32> undef, i32 %359, i32 0
- %362 = insertelement <2 x i32> %361, i32 %360, i32 1
- %363 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %362, <32 x i8> %151, <16 x i8> %153, i32 2)
- %364 = extractelement <4 x float> %363, i32 2
- %365 = fmul float %result.i40, %result.i
- %366 = fmul float %result.i36, %result.i44
- %367 = fmul float %result.i32, %result.i42
- %368 = fmul float %355, %230
- %369 = bitcast float %311 to i32
- %370 = bitcast float %312 to i32
- %371 = insertelement <2 x i32> undef, i32 %369, i32 0
- %372 = insertelement <2 x i32> %371, i32 %370, i32 1
- %373 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %372, <32 x i8> %139, <16 x i8> %141, i32 2)
- %374 = extractelement <4 x float> %373, i32 0
- %375 = extractelement <4 x float> %373, i32 1
- %376 = extractelement <4 x float> %373, i32 2
- %377 = extractelement <4 x float> %373, i32 3
- %378 = fcmp olt float 0.000000e+00, %376
- %379 = sext i1 %378 to i32
- %380 = bitcast i32 %379 to float
- %381 = bitcast float %380 to i32
- %382 = icmp ne i32 %381, 0
- %.224 = select i1 %382, float %375, float %374
- %.225 = select i1 %382, float %377, float %375
- %383 = bitcast float %321 to i32
- %384 = bitcast float %322 to i32
- %385 = insertelement <2 x i32> undef, i32 %383, i32 0
- %386 = insertelement <2 x i32> %385, i32 %384, i32 1
- %387 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %386, <32 x i8> %143, <16 x i8> %145, i32 2)
- %388 = extractelement <4 x float> %387, i32 0
- %389 = extractelement <4 x float> %387, i32 1
- %390 = extractelement <4 x float> %387, i32 2
- %391 = extractelement <4 x float> %387, i32 3
- %392 = fcmp olt float 0.000000e+00, %390
- %393 = sext i1 %392 to i32
- %394 = bitcast i32 %393 to float
- %395 = bitcast float %394 to i32
- %396 = icmp ne i32 %395, 0
- %temp112.1 = select i1 %396, float %389, float %388
- %temp113.1 = select i1 %396, float %391, float %389
- %397 = fmul float %.224, 2.000000e+00
- %398 = fadd float %397, -1.000000e+00
- %399 = fmul float %.225, 2.000000e+00
- %400 = fadd float %399, -1.000000e+00
- %401 = fmul float %temp112.1, 2.000000e+00
- %402 = fadd float %401, -1.000000e+00
- %403 = fmul float %temp113.1, 2.000000e+00
- %404 = fadd float %403, -1.000000e+00
- %405 = fsub float -0.000000e+00, %398
- %406 = fmul float %405, %35
- %407 = fsub float -0.000000e+00, %400
- %408 = fmul float %407, %35
- %409 = fsub float -0.000000e+00, %402
- %410 = fmul float %409, %36
- %411 = fsub float -0.000000e+00, %404
- %412 = fmul float %411, %36
- %413 = fmul float %410, %364
- %414 = fmul float %412, %364
- %415 = call float @fabs(float %406)
- %416 = call float @fabs(float %408)
- %417 = fsub float -0.000000e+00, %415
- %418 = fadd float 1.000000e+00, %417
- %419 = fsub float -0.000000e+00, %416
- %420 = fadd float 1.000000e+00, %419
- %421 = fmul float %418, %413
- %422 = fadd float %421, %406
- %423 = fmul float %420, %414
- %424 = fadd float %423, %408
- %425 = fmul float %422, %422
- %426 = fmul float %424, %424
- %427 = fadd float %425, %426
- %428 = fsub float -0.000000e+00, %427
- %429 = fadd float 0x3FF00068E0000000, %428
- %430 = call float @llvm.AMDIL.clamp.(float %429, float 0.000000e+00, float 1.000000e+00)
- %431 = call float @llvm.amdgcn.rsq.f32(float %430)
- %432 = fmul float %431, %430
- %433 = fsub float -0.000000e+00, %430
- %cmp = fcmp ogt float 0.000000e+00, %433
- %434 = select i1 %cmp, float %432, float 0.000000e+00
- %435 = fmul float %184, %422
- %436 = fmul float %185, %422
- %437 = fmul float %186, %422
- %438 = fmul float %187, %424
- %439 = fadd float %438, %435
- %440 = fmul float %188, %424
- %441 = fadd float %440, %436
- %442 = fmul float %189, %424
- %443 = fadd float %442, %437
- %444 = fmul float %190, %434
- %445 = fadd float %444, %439
- %446 = fmul float %191, %434
- %447 = fadd float %446, %441
- %448 = fmul float %192, %434
- %449 = fadd float %448, %443
- %450 = fmul float %445, %445
- %451 = fmul float %447, %447
- %452 = fadd float %451, %450
- %453 = fmul float %449, %449
- %454 = fadd float %452, %453
- %455 = call float @llvm.amdgcn.rsq.f32(float %454)
- %456 = fmul float %445, %455
- %457 = fmul float %447, %455
- %458 = fmul float %449, %455
- %459 = fcmp olt float 0.000000e+00, %219
- %460 = sext i1 %459 to i32
- %461 = bitcast i32 %460 to float
- %462 = bitcast float %461 to i32
- %463 = icmp ne i32 %462, 0
- br i1 %463, label %IF198, label %ENDIF197
+ %tmp358 = bitcast float %tmp336 to i32
+ %tmp359 = bitcast float %tmp337 to i32
+ %tmp360 = insertelement <2 x i32> undef, i32 %tmp358, i32 0
+ %tmp361 = insertelement <2 x i32> %tmp360, i32 %tmp359, i32 1
+ %tmp362 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp361, <32 x i8> %tmp150, <16 x i8> %tmp152, i32 2)
+ %tmp363 = extractelement <4 x float> %tmp362, i32 2
+ %tmp364 = fmul float %result.i40, %result.i
+ %tmp365 = fmul float %result.i36, %result.i44
+ %tmp366 = fmul float %result.i32, %result.i42
+ %tmp367 = fmul float %tmp354, %tmp229
+ %tmp368 = bitcast float %tmp310 to i32
+ %tmp369 = bitcast float %tmp311 to i32
+ %tmp370 = insertelement <2 x i32> undef, i32 %tmp368, i32 0
+ %tmp371 = insertelement <2 x i32> %tmp370, i32 %tmp369, i32 1
+ %tmp372 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp371, <32 x i8> %tmp138, <16 x i8> %tmp140, i32 2)
+ %tmp373 = extractelement <4 x float> %tmp372, i32 0
+ %tmp374 = extractelement <4 x float> %tmp372, i32 1
+ %tmp375 = extractelement <4 x float> %tmp372, i32 2
+ %tmp376 = extractelement <4 x float> %tmp372, i32 3
+ %tmp377 = fcmp olt float 0.000000e+00, %tmp375
+ %tmp378 = sext i1 %tmp377 to i32
+ %tmp379 = bitcast i32 %tmp378 to float
+ %tmp380 = bitcast float %tmp379 to i32
+ %tmp381 = icmp ne i32 %tmp380, 0
+ %.224 = select i1 %tmp381, float %tmp374, float %tmp373
+ %.225 = select i1 %tmp381, float %tmp376, float %tmp374
+ %tmp382 = bitcast float %tmp320 to i32
+ %tmp383 = bitcast float %tmp321 to i32
+ %tmp384 = insertelement <2 x i32> undef, i32 %tmp382, i32 0
+ %tmp385 = insertelement <2 x i32> %tmp384, i32 %tmp383, i32 1
+ %tmp386 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp385, <32 x i8> %tmp142, <16 x i8> %tmp144, i32 2)
+ %tmp387 = extractelement <4 x float> %tmp386, i32 0
+ %tmp388 = extractelement <4 x float> %tmp386, i32 1
+ %tmp389 = extractelement <4 x float> %tmp386, i32 2
+ %tmp390 = extractelement <4 x float> %tmp386, i32 3
+ %tmp391 = fcmp olt float 0.000000e+00, %tmp389
+ %tmp392 = sext i1 %tmp391 to i32
+ %tmp393 = bitcast i32 %tmp392 to float
+ %tmp394 = bitcast float %tmp393 to i32
+ %tmp395 = icmp ne i32 %tmp394, 0
+ %temp112.1 = select i1 %tmp395, float %tmp388, float %tmp387
+ %temp113.1 = select i1 %tmp395, float %tmp390, float %tmp388
+ %tmp396 = fmul float %.224, 2.000000e+00
+ %tmp397 = fadd float %tmp396, -1.000000e+00
+ %tmp398 = fmul float %.225, 2.000000e+00
+ %tmp399 = fadd float %tmp398, -1.000000e+00
+ %tmp400 = fmul float %temp112.1, 2.000000e+00
+ %tmp401 = fadd float %tmp400, -1.000000e+00
+ %tmp402 = fmul float %temp113.1, 2.000000e+00
+ %tmp403 = fadd float %tmp402, -1.000000e+00
+ %tmp404 = fsub float -0.000000e+00, %tmp397
+ %tmp405 = fmul float %tmp404, %tmp34
+ %tmp406 = fsub float -0.000000e+00, %tmp399
+ %tmp407 = fmul float %tmp406, %tmp34
+ %tmp408 = fsub float -0.000000e+00, %tmp401
+ %tmp409 = fmul float %tmp408, %tmp35
+ %tmp410 = fsub float -0.000000e+00, %tmp403
+ %tmp411 = fmul float %tmp410, %tmp35
+ %tmp412 = fmul float %tmp409, %tmp363
+ %tmp413 = fmul float %tmp411, %tmp363
+ %tmp414 = call float @fabs(float %tmp405)
+ %tmp415 = call float @fabs(float %tmp407)
+ %tmp416 = fsub float -0.000000e+00, %tmp414
+ %tmp417 = fadd float 1.000000e+00, %tmp416
+ %tmp418 = fsub float -0.000000e+00, %tmp415
+ %tmp419 = fadd float 1.000000e+00, %tmp418
+ %tmp420 = fmul float %tmp417, %tmp412
+ %tmp421 = fadd float %tmp420, %tmp405
+ %tmp422 = fmul float %tmp419, %tmp413
+ %tmp423 = fadd float %tmp422, %tmp407
+ %tmp424 = fmul float %tmp421, %tmp421
+ %tmp425 = fmul float %tmp423, %tmp423
+ %tmp426 = fadd float %tmp424, %tmp425
+ %tmp427 = fsub float -0.000000e+00, %tmp426
+ %tmp428 = fadd float 0x3FF00068E0000000, %tmp427
+ %tmp429 = call float @llvm.AMDIL.clamp.(float %tmp428, float 0.000000e+00, float 1.000000e+00)
+ %tmp430 = call float @llvm.amdgcn.rsq.f32(float %tmp429)
+ %tmp431 = fmul float %tmp430, %tmp429
+ %tmp432 = fsub float -0.000000e+00, %tmp429
+ %cmp = fcmp ogt float 0.000000e+00, %tmp432
+ %tmp433 = select i1 %cmp, float %tmp431, float 0.000000e+00
+ %tmp434 = fmul float %tmp183, %tmp421
+ %tmp435 = fmul float %tmp184, %tmp421
+ %tmp436 = fmul float %tmp185, %tmp421
+ %tmp437 = fmul float %tmp186, %tmp423
+ %tmp438 = fadd float %tmp437, %tmp434
+ %tmp439 = fmul float %tmp187, %tmp423
+ %tmp440 = fadd float %tmp439, %tmp435
+ %tmp441 = fmul float %tmp188, %tmp423
+ %tmp442 = fadd float %tmp441, %tmp436
+ %tmp443 = fmul float %tmp189, %tmp433
+ %tmp444 = fadd float %tmp443, %tmp438
+ %tmp445 = fmul float %tmp190, %tmp433
+ %tmp446 = fadd float %tmp445, %tmp440
+ %tmp447 = fmul float %tmp191, %tmp433
+ %tmp448 = fadd float %tmp447, %tmp442
+ %tmp449 = fmul float %tmp444, %tmp444
+ %tmp450 = fmul float %tmp446, %tmp446
+ %tmp451 = fadd float %tmp450, %tmp449
+ %tmp452 = fmul float %tmp448, %tmp448
+ %tmp453 = fadd float %tmp451, %tmp452
+ %tmp454 = call float @llvm.amdgcn.rsq.f32(float %tmp453)
+ %tmp455 = fmul float %tmp444, %tmp454
+ %tmp456 = fmul float %tmp446, %tmp454
+ %tmp457 = fmul float %tmp448, %tmp454
+ %tmp458 = fcmp olt float 0.000000e+00, %tmp218
+ %tmp459 = sext i1 %tmp458 to i32
+ %tmp460 = bitcast i32 %tmp459 to float
+ %tmp461 = bitcast float %tmp460 to i32
+ %tmp462 = icmp ne i32 %tmp461, 0
+ br i1 %tmp462, label %IF198, label %ENDIF197
IF198: ; preds = %IF189
- %464 = fsub float -0.000000e+00, %456
- %465 = fsub float -0.000000e+00, %457
- %466 = fsub float -0.000000e+00, %458
+ %tmp463 = fsub float -0.000000e+00, %tmp455
+ %tmp464 = fsub float -0.000000e+00, %tmp456
+ %tmp465 = fsub float -0.000000e+00, %tmp457
br label %ENDIF197
ENDIF197: ; preds = %IF198, %IF189
- %temp14.0 = phi float [ %466, %IF198 ], [ %458, %IF189 ]
- %temp13.0 = phi float [ %465, %IF198 ], [ %457, %IF189 ]
- %temp12.0 = phi float [ %464, %IF198 ], [ %456, %IF189 ]
- %467 = bitcast float %220 to i32
- %468 = bitcast float %221 to i32
- %469 = insertelement <2 x i32> undef, i32 %467, i32 0
- %470 = insertelement <2 x i32> %469, i32 %468, i32 1
- %471 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %470, <32 x i8> %159, <16 x i8> %161, i32 2)
- %472 = extractelement <4 x float> %471, i32 0
- %473 = extractelement <4 x float> %471, i32 1
- %474 = extractelement <4 x float> %471, i32 2
- %475 = extractelement <4 x float> %471, i32 3
- %476 = fmul float %472, %40
- %477 = fadd float %476, %41
- %478 = fmul float %473, %40
- %479 = fadd float %478, %41
- %480 = fmul float %474, %40
- %481 = fadd float %480, %41
- %482 = fmul float %475, %42
- %483 = fadd float %482, %43
- %484 = bitcast float %172 to i32
- %485 = bitcast float %173 to i32
- %486 = insertelement <2 x i32> undef, i32 %484, i32 0
- %487 = insertelement <2 x i32> %486, i32 %485, i32 1
- %488 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %487, <32 x i8> %155, <16 x i8> %157, i32 2)
- %489 = extractelement <4 x float> %488, i32 0
- %490 = extractelement <4 x float> %488, i32 1
- %491 = extractelement <4 x float> %488, i32 2
- %492 = extractelement <4 x float> %488, i32 3
- %493 = fmul float %492, 3.200000e+01
- %494 = fadd float %493, -1.600000e+01
- %495 = call float @llvm.AMDIL.exp.(float %494)
- %496 = fmul float %489, %495
- %497 = fmul float %490, %495
- %498 = fmul float %491, %495
- %499 = fmul float %28, %496
- %500 = fadd float %499, %193
- %501 = fmul float %29, %497
- %502 = fadd float %501, %194
- %503 = fmul float %30, %498
- %504 = fadd float %503, %195
- %505 = fmul float %500, %483
- %506 = fmul float %502, %483
- %507 = fmul float %504, %483
- %508 = fmul float %483, 5.000000e-01
- %509 = fadd float %508, 5.000000e-01
- %510 = fmul float %477, %509
- %511 = fadd float %510, %505
- %512 = fmul float %479, %509
- %513 = fadd float %512, %506
- %514 = fmul float %481, %509
- %515 = fadd float %514, %507
- %516 = fmul float %511, %365
- %517 = fmul float %513, %366
- %518 = fmul float %515, %367
- %519 = fmul float %422, 0x3FDB272440000000
- %520 = fmul float %424, 0xBFDB272440000000
- %521 = fadd float %520, %519
- %522 = fmul float %434, 0x3FE99999A0000000
- %523 = fadd float %521, %522
- %524 = fmul float %523, 5.000000e-01
- %525 = fadd float %524, 0x3FE3333340000000
- %526 = fmul float %525, %525
- %527 = fmul float %516, %526
- %528 = fmul float %517, %526
- %529 = fmul float %518, %526
- %530 = fsub float -0.000000e+00, %72
- %531 = fsub float -0.000000e+00, %73
- %532 = fsub float -0.000000e+00, %74
- %533 = fmul float %temp12.0, %530
- %534 = fmul float %temp13.0, %531
- %535 = fadd float %534, %533
- %536 = fmul float %temp14.0, %532
- %537 = fadd float %535, %536
- %538 = call float @llvm.AMDIL.clamp.(float %537, float 0.000000e+00, float 1.000000e+00)
- %539 = fmul float %365, %538
- %540 = fmul float %366, %538
- %541 = fmul float %367, %538
- %542 = fmul float %539, %69
- %543 = fmul float %540, %70
- %544 = fmul float %541, %71
- %545 = fsub float -0.000000e+00, %164
- %546 = fadd float %97, %545
- %547 = fsub float -0.000000e+00, %165
- %548 = fadd float %98, %547
- %549 = fsub float -0.000000e+00, %166
- %550 = fadd float %99, %549
- %551 = fmul float %546, %546
- %552 = fmul float %548, %548
- %553 = fadd float %552, %551
- %554 = fmul float %550, %550
- %555 = fadd float %553, %554
- %556 = call float @llvm.amdgcn.rsq.f32(float %555)
- %557 = fmul float %556, %555
- %558 = fsub float -0.000000e+00, %555
- %cmp1 = fcmp ogt float %558, 0.000000e+00
- %559 = select i1 %cmp1, float %557, float 0.000000e+00
- %560 = fsub float -0.000000e+00, %84
- %561 = fadd float %559, %560
- %562 = fsub float -0.000000e+00, %83
- %563 = fadd float %559, %562
- %564 = fsub float -0.000000e+00, %82
- %565 = fadd float %559, %564
- %566 = fsub float -0.000000e+00, %84
- %567 = fadd float %83, %566
- %568 = fsub float -0.000000e+00, %83
- %569 = fadd float %82, %568
- %570 = fsub float -0.000000e+00, %82
- %571 = fadd float %81, %570
- %572 = fdiv float 1.000000e+00, %567
- %573 = fdiv float 1.000000e+00, %569
- %574 = fdiv float 1.000000e+00, %571
- %575 = fmul float %561, %572
- %576 = fmul float %563, %573
- %577 = fmul float %565, %574
- %578 = fcmp olt float %559, %83
- %579 = sext i1 %578 to i32
- %580 = bitcast i32 %579 to float
- %581 = bitcast float %580 to i32
- %582 = icmp ne i32 %581, 0
- br i1 %582, label %ENDIF200, label %ELSE202
+ %temp14.0 = phi float [ %tmp465, %IF198 ], [ %tmp457, %IF189 ]
+ %temp13.0 = phi float [ %tmp464, %IF198 ], [ %tmp456, %IF189 ]
+ %temp12.0 = phi float [ %tmp463, %IF198 ], [ %tmp455, %IF189 ]
+ %tmp466 = bitcast float %tmp219 to i32
+ %tmp467 = bitcast float %tmp220 to i32
+ %tmp468 = insertelement <2 x i32> undef, i32 %tmp466, i32 0
+ %tmp469 = insertelement <2 x i32> %tmp468, i32 %tmp467, i32 1
+ %tmp470 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp469, <32 x i8> %tmp158, <16 x i8> %tmp160, i32 2)
+ %tmp471 = extractelement <4 x float> %tmp470, i32 0
+ %tmp472 = extractelement <4 x float> %tmp470, i32 1
+ %tmp473 = extractelement <4 x float> %tmp470, i32 2
+ %tmp474 = extractelement <4 x float> %tmp470, i32 3
+ %tmp475 = fmul float %tmp471, %tmp39
+ %tmp476 = fadd float %tmp475, %tmp40
+ %tmp477 = fmul float %tmp472, %tmp39
+ %tmp478 = fadd float %tmp477, %tmp40
+ %tmp479 = fmul float %tmp473, %tmp39
+ %tmp480 = fadd float %tmp479, %tmp40
+ %tmp481 = fmul float %tmp474, %tmp41
+ %tmp482 = fadd float %tmp481, %tmp42
+ %tmp483 = bitcast float %tmp171 to i32
+ %tmp484 = bitcast float %tmp172 to i32
+ %tmp485 = insertelement <2 x i32> undef, i32 %tmp483, i32 0
+ %tmp486 = insertelement <2 x i32> %tmp485, i32 %tmp484, i32 1
+ %tmp487 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp486, <32 x i8> %tmp154, <16 x i8> %tmp156, i32 2)
+ %tmp488 = extractelement <4 x float> %tmp487, i32 0
+ %tmp489 = extractelement <4 x float> %tmp487, i32 1
+ %tmp490 = extractelement <4 x float> %tmp487, i32 2
+ %tmp491 = extractelement <4 x float> %tmp487, i32 3
+ %tmp492 = fmul float %tmp491, 3.200000e+01
+ %tmp493 = fadd float %tmp492, -1.600000e+01
+ %tmp494 = call float @llvm.AMDIL.exp.(float %tmp493)
+ %tmp495 = fmul float %tmp488, %tmp494
+ %tmp496 = fmul float %tmp489, %tmp494
+ %tmp497 = fmul float %tmp490, %tmp494
+ %tmp498 = fmul float %tmp27, %tmp495
+ %tmp499 = fadd float %tmp498, %tmp192
+ %tmp500 = fmul float %tmp28, %tmp496
+ %tmp501 = fadd float %tmp500, %tmp193
+ %tmp502 = fmul float %tmp29, %tmp497
+ %tmp503 = fadd float %tmp502, %tmp194
+ %tmp504 = fmul float %tmp499, %tmp482
+ %tmp505 = fmul float %tmp501, %tmp482
+ %tmp506 = fmul float %tmp503, %tmp482
+ %tmp507 = fmul float %tmp482, 5.000000e-01
+ %tmp508 = fadd float %tmp507, 5.000000e-01
+ %tmp509 = fmul float %tmp476, %tmp508
+ %tmp510 = fadd float %tmp509, %tmp504
+ %tmp511 = fmul float %tmp478, %tmp508
+ %tmp512 = fadd float %tmp511, %tmp505
+ %tmp513 = fmul float %tmp480, %tmp508
+ %tmp514 = fadd float %tmp513, %tmp506
+ %tmp515 = fmul float %tmp510, %tmp364
+ %tmp516 = fmul float %tmp512, %tmp365
+ %tmp517 = fmul float %tmp514, %tmp366
+ %tmp518 = fmul float %tmp421, 0x3FDB272440000000
+ %tmp519 = fmul float %tmp423, 0xBFDB272440000000
+ %tmp520 = fadd float %tmp519, %tmp518
+ %tmp521 = fmul float %tmp433, 0x3FE99999A0000000
+ %tmp522 = fadd float %tmp520, %tmp521
+ %tmp523 = fmul float %tmp522, 5.000000e-01
+ %tmp524 = fadd float %tmp523, 0x3FE3333340000000
+ %tmp525 = fmul float %tmp524, %tmp524
+ %tmp526 = fmul float %tmp515, %tmp525
+ %tmp527 = fmul float %tmp516, %tmp525
+ %tmp528 = fmul float %tmp517, %tmp525
+ %tmp529 = fsub float -0.000000e+00, %tmp71
+ %tmp530 = fsub float -0.000000e+00, %tmp72
+ %tmp531 = fsub float -0.000000e+00, %tmp73
+ %tmp532 = fmul float %temp12.0, %tmp529
+ %tmp533 = fmul float %temp13.0, %tmp530
+ %tmp534 = fadd float %tmp533, %tmp532
+ %tmp535 = fmul float %temp14.0, %tmp531
+ %tmp536 = fadd float %tmp534, %tmp535
+ %tmp537 = call float @llvm.AMDIL.clamp.(float %tmp536, float 0.000000e+00, float 1.000000e+00)
+ %tmp538 = fmul float %tmp364, %tmp537
+ %tmp539 = fmul float %tmp365, %tmp537
+ %tmp540 = fmul float %tmp366, %tmp537
+ %tmp541 = fmul float %tmp538, %tmp68
+ %tmp542 = fmul float %tmp539, %tmp69
+ %tmp543 = fmul float %tmp540, %tmp70
+ %tmp544 = fsub float -0.000000e+00, %tmp163
+ %tmp545 = fadd float %tmp96, %tmp544
+ %tmp546 = fsub float -0.000000e+00, %tmp164
+ %tmp547 = fadd float %tmp97, %tmp546
+ %tmp548 = fsub float -0.000000e+00, %tmp165
+ %tmp549 = fadd float %tmp98, %tmp548
+ %tmp550 = fmul float %tmp545, %tmp545
+ %tmp551 = fmul float %tmp547, %tmp547
+ %tmp552 = fadd float %tmp551, %tmp550
+ %tmp553 = fmul float %tmp549, %tmp549
+ %tmp554 = fadd float %tmp552, %tmp553
+ %tmp555 = call float @llvm.amdgcn.rsq.f32(float %tmp554)
+ %tmp556 = fmul float %tmp555, %tmp554
+ %tmp557 = fsub float -0.000000e+00, %tmp554
+ %cmp1 = fcmp ogt float %tmp557, 0.000000e+00
+ %tmp558 = select i1 %cmp1, float %tmp556, float 0.000000e+00
+ %tmp559 = fsub float -0.000000e+00, %tmp83
+ %tmp560 = fadd float %tmp558, %tmp559
+ %tmp561 = fsub float -0.000000e+00, %tmp82
+ %tmp562 = fadd float %tmp558, %tmp561
+ %tmp563 = fsub float -0.000000e+00, %tmp81
+ %tmp564 = fadd float %tmp558, %tmp563
+ %tmp565 = fsub float -0.000000e+00, %tmp83
+ %tmp566 = fadd float %tmp82, %tmp565
+ %tmp567 = fsub float -0.000000e+00, %tmp82
+ %tmp568 = fadd float %tmp81, %tmp567
+ %tmp569 = fsub float -0.000000e+00, %tmp81
+ %tmp570 = fadd float %tmp80, %tmp569
+ %tmp571 = fdiv float 1.000000e+00, %tmp566
+ %tmp572 = fdiv float 1.000000e+00, %tmp568
+ %tmp573 = fdiv float 1.000000e+00, %tmp570
+ %tmp574 = fmul float %tmp560, %tmp571
+ %tmp575 = fmul float %tmp562, %tmp572
+ %tmp576 = fmul float %tmp564, %tmp573
+ %tmp577 = fcmp olt float %tmp558, %tmp82
+ %tmp578 = sext i1 %tmp577 to i32
+ %tmp579 = bitcast i32 %tmp578 to float
+ %tmp580 = bitcast float %tmp579 to i32
+ %tmp581 = icmp ne i32 %tmp580, 0
+ br i1 %tmp581, label %ENDIF200, label %ELSE202
ELSE202: ; preds = %ENDIF197
- %583 = fcmp olt float %559, %82
- %584 = sext i1 %583 to i32
- %585 = bitcast i32 %584 to float
- %586 = bitcast float %585 to i32
- %587 = icmp ne i32 %586, 0
- br i1 %587, label %ENDIF200, label %ELSE205
+ %tmp582 = fcmp olt float %tmp558, %tmp81
+ %tmp583 = sext i1 %tmp582 to i32
+ %tmp584 = bitcast i32 %tmp583 to float
+ %tmp585 = bitcast float %tmp584 to i32
+ %tmp586 = icmp ne i32 %tmp585, 0
+ br i1 %tmp586, label %ENDIF200, label %ELSE205
ENDIF200: ; preds = %ELSE205, %ELSE202, %ENDIF197
- %temp80.0 = phi float [ %575, %ENDIF197 ], [ %.226, %ELSE205 ], [ %576, %ELSE202 ]
- %temp88.0 = phi float [ %122, %ENDIF197 ], [ %.227, %ELSE205 ], [ %120, %ELSE202 ]
- %temp89.0 = phi float [ %123, %ENDIF197 ], [ %.228, %ELSE205 ], [ %121, %ELSE202 ]
- %temp90.0 = phi float [ %120, %ENDIF197 ], [ %116, %ELSE205 ], [ %118, %ELSE202 ]
- %temp91.0 = phi float [ %121, %ENDIF197 ], [ %117, %ELSE205 ], [ %119, %ELSE202 ]
- %588 = fcmp olt float %559, %83
- %589 = sext i1 %588 to i32
- %590 = bitcast i32 %589 to float
- %591 = bitcast float %590 to i32
- %592 = icmp ne i32 %591, 0
- br i1 %592, label %ENDIF209, label %ELSE211
+ %temp80.0 = phi float [ %tmp574, %ENDIF197 ], [ %.226, %ELSE205 ], [ %tmp575, %ELSE202 ]
+ %temp88.0 = phi float [ %tmp121, %ENDIF197 ], [ %.227, %ELSE205 ], [ %tmp119, %ELSE202 ]
+ %temp89.0 = phi float [ %tmp122, %ENDIF197 ], [ %.228, %ELSE205 ], [ %tmp120, %ELSE202 ]
+ %temp90.0 = phi float [ %tmp119, %ENDIF197 ], [ %tmp115, %ELSE205 ], [ %tmp117, %ELSE202 ]
+ %temp91.0 = phi float [ %tmp120, %ENDIF197 ], [ %tmp116, %ELSE205 ], [ %tmp118, %ELSE202 ]
+ %tmp587 = fcmp olt float %tmp558, %tmp82
+ %tmp588 = sext i1 %tmp587 to i32
+ %tmp589 = bitcast i32 %tmp588 to float
+ %tmp590 = bitcast float %tmp589 to i32
+ %tmp591 = icmp ne i32 %tmp590, 0
+ br i1 %tmp591, label %ENDIF209, label %ELSE211
ELSE205: ; preds = %ELSE202
- %593 = fcmp olt float %559, %81
- %594 = sext i1 %593 to i32
- %595 = bitcast i32 %594 to float
- %596 = bitcast float %595 to i32
- %597 = icmp ne i32 %596, 0
- %.226 = select i1 %597, float %577, float 1.000000e+00
- %.227 = select i1 %597, float %118, float %116
- %.228 = select i1 %597, float %119, float %117
+ %tmp592 = fcmp olt float %tmp558, %tmp80
+ %tmp593 = sext i1 %tmp592 to i32
+ %tmp594 = bitcast i32 %tmp593 to float
+ %tmp595 = bitcast float %tmp594 to i32
+ %tmp596 = icmp ne i32 %tmp595, 0
+ %.226 = select i1 %tmp596, float %tmp576, float 1.000000e+00
+ %.227 = select i1 %tmp596, float %tmp117, float %tmp115
+ %.228 = select i1 %tmp596, float %tmp118, float %tmp116
br label %ENDIF200
ELSE211: ; preds = %ENDIF200
- %598 = fcmp olt float %559, %82
- %599 = sext i1 %598 to i32
- %600 = bitcast i32 %599 to float
- %601 = bitcast float %600 to i32
- %602 = icmp ne i32 %601, 0
- br i1 %602, label %ENDIF209, label %ELSE214
+ %tmp597 = fcmp olt float %tmp558, %tmp81
+ %tmp598 = sext i1 %tmp597 to i32
+ %tmp599 = bitcast i32 %tmp598 to float
+ %tmp600 = bitcast float %tmp599 to i32
+ %tmp601 = icmp ne i32 %tmp600, 0
+ br i1 %tmp601, label %ENDIF209, label %ELSE214
ENDIF209: ; preds = %ELSE214, %ELSE211, %ENDIF200
- %temp52.0 = phi float [ %108, %ENDIF200 ], [ %100, %ELSE214 ], [ %104, %ELSE211 ]
- %temp53.0 = phi float [ %109, %ENDIF200 ], [ %101, %ELSE214 ], [ %105, %ELSE211 ]
- %temp54.0 = phi float [ %110, %ENDIF200 ], [ %102, %ELSE214 ], [ %106, %ELSE211 ]
- %temp55.0 = phi float [ %111, %ENDIF200 ], [ %103, %ELSE214 ], [ %107, %ELSE211 ]
- %temp68.0 = phi float [ %112, %ENDIF200 ], [ %.230, %ELSE214 ], [ %108, %ELSE211 ]
- %temp69.0 = phi float [ %113, %ENDIF200 ], [ %.231, %ELSE214 ], [ %109, %ELSE211 ]
- %temp70.0 = phi float [ %114, %ENDIF200 ], [ %.232, %ELSE214 ], [ %110, %ELSE211 ]
- %temp71.0 = phi float [ %115, %ENDIF200 ], [ %.233, %ELSE214 ], [ %111, %ELSE211 ]
- %603 = fmul float %164, %85
- %604 = fmul float %165, %86
- %605 = fadd float %603, %604
- %606 = fmul float %166, %87
- %607 = fadd float %605, %606
- %608 = fmul float %167, %88
- %609 = fadd float %607, %608
- %610 = fmul float %164, %89
- %611 = fmul float %165, %90
- %612 = fadd float %610, %611
- %613 = fmul float %166, %91
- %614 = fadd float %612, %613
- %615 = fmul float %167, %92
- %616 = fadd float %614, %615
- %617 = fmul float %164, %93
- %618 = fmul float %165, %94
- %619 = fadd float %617, %618
- %620 = fmul float %166, %95
- %621 = fadd float %619, %620
- %622 = fmul float %167, %96
- %623 = fadd float %621, %622
- %624 = fsub float -0.000000e+00, %78
- %625 = fadd float 1.000000e+00, %624
- %626 = call float @fabs(float %609)
- %627 = call float @fabs(float %616)
- %628 = fcmp oge float %625, %626
- %629 = sext i1 %628 to i32
- %630 = bitcast i32 %629 to float
- %631 = bitcast float %630 to i32
- %632 = and i32 %631, 1065353216
- %633 = bitcast i32 %632 to float
- %634 = fcmp oge float %625, %627
- %635 = sext i1 %634 to i32
- %636 = bitcast i32 %635 to float
- %637 = bitcast float %636 to i32
- %638 = and i32 %637, 1065353216
- %639 = bitcast i32 %638 to float
- %640 = fmul float %633, %639
- %641 = fmul float %623, %640
- %642 = fmul float %609, %temp68.0
- %643 = fadd float %642, %temp70.0
- %644 = fmul float %616, %temp69.0
- %645 = fadd float %644, %temp71.0
- %646 = fmul float %609, %temp52.0
- %647 = fadd float %646, %temp54.0
- %648 = fmul float %616, %temp53.0
- %649 = fadd float %648, %temp55.0
- %650 = fadd float %temp80.0, -1.000000e+00
- %651 = fmul float %650, %77
- %652 = fadd float %651, 1.000000e+00
- %653 = call float @llvm.AMDIL.clamp.(float %652, float 0.000000e+00, float 1.000000e+00)
- %654 = bitcast float %643 to i32
- %655 = bitcast float %645 to i32
- %656 = bitcast float 0.000000e+00 to i32
- %657 = insertelement <4 x i32> undef, i32 %654, i32 0
- %658 = insertelement <4 x i32> %657, i32 %655, i32 1
- %659 = insertelement <4 x i32> %658, i32 %656, i32 2
- %660 = insertelement <4 x i32> %659, i32 undef, i32 3
- %661 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %660, <32 x i8> %127, <16 x i8> %129, i32 2)
- %662 = extractelement <4 x float> %661, i32 0
- %663 = extractelement <4 x float> %661, i32 1
- %664 = bitcast float %647 to i32
- %665 = bitcast float %649 to i32
- %666 = bitcast float 0.000000e+00 to i32
- %667 = insertelement <4 x i32> undef, i32 %664, i32 0
- %668 = insertelement <4 x i32> %667, i32 %665, i32 1
- %669 = insertelement <4 x i32> %668, i32 %666, i32 2
- %670 = insertelement <4 x i32> %669, i32 undef, i32 3
- %671 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %670, <32 x i8> %127, <16 x i8> %129, i32 2)
- %672 = extractelement <4 x float> %671, i32 0
- %673 = extractelement <4 x float> %671, i32 1
- %674 = fsub float -0.000000e+00, %663
- %675 = fadd float 1.000000e+00, %674
- %676 = fsub float -0.000000e+00, %673
- %677 = fadd float 1.000000e+00, %676
- %678 = fmul float %675, 2.500000e-01
- %679 = fmul float %677, 2.500000e-01
- %680 = fsub float -0.000000e+00, %678
- %681 = fadd float %662, %680
- %682 = fsub float -0.000000e+00, %679
- %683 = fadd float %672, %682
- %684 = fmul float %641, %temp88.0
- %685 = fadd float %684, %temp89.0
- %686 = fmul float %641, %temp90.0
- %687 = fadd float %686, %temp91.0
- %688 = call float @llvm.AMDIL.clamp.(float %685, float 0.000000e+00, float 1.000000e+00)
- %689 = call float @llvm.AMDIL.clamp.(float %687, float 0.000000e+00, float 1.000000e+00)
- %690 = fsub float -0.000000e+00, %688
- %691 = fadd float %662, %690
- %692 = fsub float -0.000000e+00, %689
- %693 = fadd float %672, %692
- %694 = fmul float %662, %662
- %695 = fmul float %672, %672
- %696 = fsub float -0.000000e+00, %694
- %697 = fadd float %681, %696
- %698 = fsub float -0.000000e+00, %695
- %699 = fadd float %683, %698
- %700 = fcmp uge float %697, %75
- %701 = select i1 %700, float %697, float %75
- %702 = fcmp uge float %699, %75
- %703 = select i1 %702, float %699, float %75
- %704 = fmul float %691, %691
- %705 = fadd float %704, %701
- %706 = fmul float %693, %693
- %707 = fadd float %706, %703
- %708 = fdiv float 1.000000e+00, %705
- %709 = fdiv float 1.000000e+00, %707
- %710 = fmul float %701, %708
- %711 = fmul float %703, %709
- %712 = fcmp oge float %691, 0.000000e+00
- %713 = sext i1 %712 to i32
- %714 = bitcast i32 %713 to float
- %715 = bitcast float %714 to i32
- %716 = icmp ne i32 %715, 0
- %.229 = select i1 %716, float 1.000000e+00, float %710
- %717 = fcmp oge float %693, 0.000000e+00
- %718 = sext i1 %717 to i32
- %719 = bitcast i32 %718 to float
- %720 = bitcast float %719 to i32
- %721 = icmp ne i32 %720, 0
- %temp28.0 = select i1 %721, float 1.000000e+00, float %711
- %one.sub.a.i25 = fsub float 1.000000e+00, %653
+ %temp52.0 = phi float [ %tmp107, %ENDIF200 ], [ %tmp99, %ELSE214 ], [ %tmp103, %ELSE211 ]
+ %temp53.0 = phi float [ %tmp108, %ENDIF200 ], [ %tmp100, %ELSE214 ], [ %tmp104, %ELSE211 ]
+ %temp54.0 = phi float [ %tmp109, %ENDIF200 ], [ %tmp101, %ELSE214 ], [ %tmp105, %ELSE211 ]
+ %temp55.0 = phi float [ %tmp110, %ENDIF200 ], [ %tmp102, %ELSE214 ], [ %tmp106, %ELSE211 ]
+ %temp68.0 = phi float [ %tmp111, %ENDIF200 ], [ %.230, %ELSE214 ], [ %tmp107, %ELSE211 ]
+ %temp69.0 = phi float [ %tmp112, %ENDIF200 ], [ %.231, %ELSE214 ], [ %tmp108, %ELSE211 ]
+ %temp70.0 = phi float [ %tmp113, %ENDIF200 ], [ %.232, %ELSE214 ], [ %tmp109, %ELSE211 ]
+ %temp71.0 = phi float [ %tmp114, %ENDIF200 ], [ %.233, %ELSE214 ], [ %tmp110, %ELSE211 ]
+ %tmp602 = fmul float %tmp163, %tmp84
+ %tmp603 = fmul float %tmp164, %tmp85
+ %tmp604 = fadd float %tmp602, %tmp603
+ %tmp605 = fmul float %tmp165, %tmp86
+ %tmp606 = fadd float %tmp604, %tmp605
+ %tmp607 = fmul float %tmp166, %tmp87
+ %tmp608 = fadd float %tmp606, %tmp607
+ %tmp609 = fmul float %tmp163, %tmp88
+ %tmp610 = fmul float %tmp164, %tmp89
+ %tmp611 = fadd float %tmp609, %tmp610
+ %tmp612 = fmul float %tmp165, %tmp90
+ %tmp613 = fadd float %tmp611, %tmp612
+ %tmp614 = fmul float %tmp166, %tmp91
+ %tmp615 = fadd float %tmp613, %tmp614
+ %tmp616 = fmul float %tmp163, %tmp92
+ %tmp617 = fmul float %tmp164, %tmp93
+ %tmp618 = fadd float %tmp616, %tmp617
+ %tmp619 = fmul float %tmp165, %tmp94
+ %tmp620 = fadd float %tmp618, %tmp619
+ %tmp621 = fmul float %tmp166, %tmp95
+ %tmp622 = fadd float %tmp620, %tmp621
+ %tmp623 = fsub float -0.000000e+00, %tmp77
+ %tmp624 = fadd float 1.000000e+00, %tmp623
+ %tmp625 = call float @fabs(float %tmp608)
+ %tmp626 = call float @fabs(float %tmp615)
+ %tmp627 = fcmp oge float %tmp624, %tmp625
+ %tmp628 = sext i1 %tmp627 to i32
+ %tmp629 = bitcast i32 %tmp628 to float
+ %tmp630 = bitcast float %tmp629 to i32
+ %tmp631 = and i32 %tmp630, 1065353216
+ %tmp632 = bitcast i32 %tmp631 to float
+ %tmp633 = fcmp oge float %tmp624, %tmp626
+ %tmp634 = sext i1 %tmp633 to i32
+ %tmp635 = bitcast i32 %tmp634 to float
+ %tmp636 = bitcast float %tmp635 to i32
+ %tmp637 = and i32 %tmp636, 1065353216
+ %tmp638 = bitcast i32 %tmp637 to float
+ %tmp639 = fmul float %tmp632, %tmp638
+ %tmp640 = fmul float %tmp622, %tmp639
+ %tmp641 = fmul float %tmp608, %temp68.0
+ %tmp642 = fadd float %tmp641, %temp70.0
+ %tmp643 = fmul float %tmp615, %temp69.0
+ %tmp644 = fadd float %tmp643, %temp71.0
+ %tmp645 = fmul float %tmp608, %temp52.0
+ %tmp646 = fadd float %tmp645, %temp54.0
+ %tmp647 = fmul float %tmp615, %temp53.0
+ %tmp648 = fadd float %tmp647, %temp55.0
+ %tmp649 = fadd float %temp80.0, -1.000000e+00
+ %tmp650 = fmul float %tmp649, %tmp76
+ %tmp651 = fadd float %tmp650, 1.000000e+00
+ %tmp652 = call float @llvm.AMDIL.clamp.(float %tmp651, float 0.000000e+00, float 1.000000e+00)
+ %tmp653 = bitcast float %tmp642 to i32
+ %tmp654 = bitcast float %tmp644 to i32
+ %tmp655 = bitcast float 0.000000e+00 to i32
+ %tmp656 = insertelement <4 x i32> undef, i32 %tmp653, i32 0
+ %tmp657 = insertelement <4 x i32> %tmp656, i32 %tmp654, i32 1
+ %tmp658 = insertelement <4 x i32> %tmp657, i32 %tmp655, i32 2
+ %tmp659 = insertelement <4 x i32> %tmp658, i32 undef, i32 3
+ %tmp660 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp659, <32 x i8> %tmp126, <16 x i8> %tmp128, i32 2)
+ %tmp661 = extractelement <4 x float> %tmp660, i32 0
+ %tmp662 = extractelement <4 x float> %tmp660, i32 1
+ %tmp663 = bitcast float %tmp646 to i32
+ %tmp664 = bitcast float %tmp648 to i32
+ %tmp665 = bitcast float 0.000000e+00 to i32
+ %tmp666 = insertelement <4 x i32> undef, i32 %tmp663, i32 0
+ %tmp667 = insertelement <4 x i32> %tmp666, i32 %tmp664, i32 1
+ %tmp668 = insertelement <4 x i32> %tmp667, i32 %tmp665, i32 2
+ %tmp669 = insertelement <4 x i32> %tmp668, i32 undef, i32 3
+ %tmp670 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp669, <32 x i8> %tmp126, <16 x i8> %tmp128, i32 2)
+ %tmp671 = extractelement <4 x float> %tmp670, i32 0
+ %tmp672 = extractelement <4 x float> %tmp670, i32 1
+ %tmp673 = fsub float -0.000000e+00, %tmp662
+ %tmp674 = fadd float 1.000000e+00, %tmp673
+ %tmp675 = fsub float -0.000000e+00, %tmp672
+ %tmp676 = fadd float 1.000000e+00, %tmp675
+ %tmp677 = fmul float %tmp674, 2.500000e-01
+ %tmp678 = fmul float %tmp676, 2.500000e-01
+ %tmp679 = fsub float -0.000000e+00, %tmp677
+ %tmp680 = fadd float %tmp661, %tmp679
+ %tmp681 = fsub float -0.000000e+00, %tmp678
+ %tmp682 = fadd float %tmp671, %tmp681
+ %tmp683 = fmul float %tmp640, %temp88.0
+ %tmp684 = fadd float %tmp683, %temp89.0
+ %tmp685 = fmul float %tmp640, %temp90.0
+ %tmp686 = fadd float %tmp685, %temp91.0
+ %tmp687 = call float @llvm.AMDIL.clamp.(float %tmp684, float 0.000000e+00, float 1.000000e+00)
+ %tmp688 = call float @llvm.AMDIL.clamp.(float %tmp686, float 0.000000e+00, float 1.000000e+00)
+ %tmp689 = fsub float -0.000000e+00, %tmp687
+ %tmp690 = fadd float %tmp661, %tmp689
+ %tmp691 = fsub float -0.000000e+00, %tmp688
+ %tmp692 = fadd float %tmp671, %tmp691
+ %tmp693 = fmul float %tmp661, %tmp661
+ %tmp694 = fmul float %tmp671, %tmp671
+ %tmp695 = fsub float -0.000000e+00, %tmp693
+ %tmp696 = fadd float %tmp680, %tmp695
+ %tmp697 = fsub float -0.000000e+00, %tmp694
+ %tmp698 = fadd float %tmp682, %tmp697
+ %tmp699 = fcmp uge float %tmp696, %tmp74
+ %tmp700 = select i1 %tmp699, float %tmp696, float %tmp74
+ %tmp701 = fcmp uge float %tmp698, %tmp74
+ %tmp702 = select i1 %tmp701, float %tmp698, float %tmp74
+ %tmp703 = fmul float %tmp690, %tmp690
+ %tmp704 = fadd float %tmp703, %tmp700
+ %tmp705 = fmul float %tmp692, %tmp692
+ %tmp706 = fadd float %tmp705, %tmp702
+ %tmp707 = fdiv float 1.000000e+00, %tmp704
+ %tmp708 = fdiv float 1.000000e+00, %tmp706
+ %tmp709 = fmul float %tmp700, %tmp707
+ %tmp710 = fmul float %tmp702, %tmp708
+ %tmp711 = fcmp oge float %tmp690, 0.000000e+00
+ %tmp712 = sext i1 %tmp711 to i32
+ %tmp713 = bitcast i32 %tmp712 to float
+ %tmp714 = bitcast float %tmp713 to i32
+ %tmp715 = icmp ne i32 %tmp714, 0
+ %.229 = select i1 %tmp715, float 1.000000e+00, float %tmp709
+ %tmp716 = fcmp oge float %tmp692, 0.000000e+00
+ %tmp717 = sext i1 %tmp716 to i32
+ %tmp718 = bitcast i32 %tmp717 to float
+ %tmp719 = bitcast float %tmp718 to i32
+ %tmp720 = icmp ne i32 %tmp719, 0
+ %temp28.0 = select i1 %tmp720, float 1.000000e+00, float %tmp710
+ %one.sub.a.i25 = fsub float 1.000000e+00, %tmp652
%one.sub.ac.i26 = fmul float %one.sub.a.i25, %.229
%mul.i27 = fmul float %temp28.0, %.229
%result.i28 = fadd float %mul.i27, %one.sub.ac.i26
- %722 = call float @llvm.pow.f32(float %result.i28, float %76)
- %723 = fmul float %722, %79
- %724 = fadd float %723, %80
- %725 = call float @llvm.AMDIL.clamp.(float %724, float 0.000000e+00, float 1.000000e+00)
- %726 = fmul float %725, %725
- %727 = fmul float 2.000000e+00, %725
- %728 = fsub float -0.000000e+00, %727
- %729 = fadd float 3.000000e+00, %728
- %730 = fmul float %726, %729
- %731 = fmul float %542, %730
- %732 = fmul float %543, %730
- %733 = fmul float %544, %730
- %734 = fmul float %731, %509
- %735 = fadd float %734, %527
- %736 = fmul float %732, %509
- %737 = fadd float %736, %528
- %738 = fmul float %733, %509
- %739 = fadd float %738, %529
- %one.sub.a.i23 = fsub float 1.000000e+00, %230
- %result.i24 = fadd float %284, %one.sub.a.i23
- %one.sub.a.i21 = fsub float 1.000000e+00, %37
- %result.i22 = fadd float %295, %one.sub.a.i21
- %one.sub.a.i19 = fsub float 1.000000e+00, %37
- %result.i20 = fadd float %296, %one.sub.a.i19
- %one.sub.a.i17 = fsub float 1.000000e+00, %37
- %result.i18 = fadd float %297, %one.sub.a.i17
- %one.sub.a.i15 = fsub float 1.000000e+00, %38
+ %tmp721 = call float @llvm.pow.f32(float %result.i28, float %tmp75)
+ %tmp722 = fmul float %tmp721, %tmp78
+ %tmp723 = fadd float %tmp722, %tmp79
+ %tmp724 = call float @llvm.AMDIL.clamp.(float %tmp723, float 0.000000e+00, float 1.000000e+00)
+ %tmp725 = fmul float %tmp724, %tmp724
+ %tmp726 = fmul float 2.000000e+00, %tmp724
+ %tmp727 = fsub float -0.000000e+00, %tmp726
+ %tmp728 = fadd float 3.000000e+00, %tmp727
+ %tmp729 = fmul float %tmp725, %tmp728
+ %tmp730 = fmul float %tmp541, %tmp729
+ %tmp731 = fmul float %tmp542, %tmp729
+ %tmp732 = fmul float %tmp543, %tmp729
+ %tmp733 = fmul float %tmp730, %tmp508
+ %tmp734 = fadd float %tmp733, %tmp526
+ %tmp735 = fmul float %tmp731, %tmp508
+ %tmp736 = fadd float %tmp735, %tmp527
+ %tmp737 = fmul float %tmp732, %tmp508
+ %tmp738 = fadd float %tmp737, %tmp528
+ %one.sub.a.i23 = fsub float 1.000000e+00, %tmp229
+ %result.i24 = fadd float %tmp283, %one.sub.a.i23
+ %one.sub.a.i21 = fsub float 1.000000e+00, %tmp36
+ %result.i22 = fadd float %tmp294, %one.sub.a.i21
+ %one.sub.a.i19 = fsub float 1.000000e+00, %tmp36
+ %result.i20 = fadd float %tmp295, %one.sub.a.i19
+ %one.sub.a.i17 = fsub float 1.000000e+00, %tmp36
+ %result.i18 = fadd float %tmp296, %one.sub.a.i17
+ %one.sub.a.i15 = fsub float 1.000000e+00, %tmp37
%result.i16 = fadd float %result.i24, %one.sub.a.i15
- %740 = fmul float %result.i22, %result.i16
- %741 = fmul float %result.i20, %result.i16
- %742 = fmul float %result.i18, %result.i16
- %743 = fmul float %735, %740
- %744 = fmul float %737, %741
- %745 = fmul float %739, %742
- %746 = fmul float %temp12.0, %216
- %747 = fmul float %temp13.0, %217
- %748 = fadd float %747, %746
- %749 = fmul float %temp14.0, %218
- %750 = fadd float %748, %749
- %751 = call float @fabs(float %750)
- %752 = fmul float %751, %751
- %753 = fmul float %752, %50
- %754 = fadd float %753, %51
- %755 = call float @llvm.AMDIL.clamp.(float %754, float 0.000000e+00, float 1.000000e+00)
- %756 = fsub float -0.000000e+00, %755
- %757 = fadd float 1.000000e+00, %756
- %758 = fmul float %33, %757
- %759 = fmul float %33, %757
- %760 = fmul float %33, %757
- %761 = fmul float %34, %757
- %one.sub.a.i11 = fsub float 1.000000e+00, %758
- %one.sub.ac.i12 = fmul float %one.sub.a.i11, %743
- %mul.i13 = fmul float %31, %743
+ %tmp739 = fmul float %result.i22, %result.i16
+ %tmp740 = fmul float %result.i20, %result.i16
+ %tmp741 = fmul float %result.i18, %result.i16
+ %tmp742 = fmul float %tmp734, %tmp739
+ %tmp743 = fmul float %tmp736, %tmp740
+ %tmp744 = fmul float %tmp738, %tmp741
+ %tmp745 = fmul float %temp12.0, %tmp215
+ %tmp746 = fmul float %temp13.0, %tmp216
+ %tmp747 = fadd float %tmp746, %tmp745
+ %tmp748 = fmul float %temp14.0, %tmp217
+ %tmp749 = fadd float %tmp747, %tmp748
+ %tmp750 = call float @fabs(float %tmp749)
+ %tmp751 = fmul float %tmp750, %tmp750
+ %tmp752 = fmul float %tmp751, %tmp49
+ %tmp753 = fadd float %tmp752, %tmp50
+ %tmp754 = call float @llvm.AMDIL.clamp.(float %tmp753, float 0.000000e+00, float 1.000000e+00)
+ %tmp755 = fsub float -0.000000e+00, %tmp754
+ %tmp756 = fadd float 1.000000e+00, %tmp755
+ %tmp757 = fmul float %tmp32, %tmp756
+ %tmp758 = fmul float %tmp32, %tmp756
+ %tmp759 = fmul float %tmp32, %tmp756
+ %tmp760 = fmul float %tmp33, %tmp756
+ %one.sub.a.i11 = fsub float 1.000000e+00, %tmp757
+ %one.sub.ac.i12 = fmul float %one.sub.a.i11, %tmp742
+ %mul.i13 = fmul float %tmp30, %tmp742
%result.i14 = fadd float %mul.i13, %one.sub.ac.i12
- %one.sub.a.i7 = fsub float 1.000000e+00, %759
- %one.sub.ac.i8 = fmul float %one.sub.a.i7, %744
- %mul.i9 = fmul float %31, %744
+ %one.sub.a.i7 = fsub float 1.000000e+00, %tmp758
+ %one.sub.ac.i8 = fmul float %one.sub.a.i7, %tmp743
+ %mul.i9 = fmul float %tmp30, %tmp743
%result.i10 = fadd float %mul.i9, %one.sub.ac.i8
- %one.sub.a.i3 = fsub float 1.000000e+00, %760
- %one.sub.ac.i4 = fmul float %one.sub.a.i3, %745
- %mul.i5 = fmul float %31, %745
+ %one.sub.a.i3 = fsub float 1.000000e+00, %tmp759
+ %one.sub.ac.i4 = fmul float %one.sub.a.i3, %tmp744
+ %mul.i5 = fmul float %tmp30, %tmp744
%result.i6 = fadd float %mul.i5, %one.sub.ac.i4
- %one.sub.a.i1 = fsub float 1.000000e+00, %761
- %one.sub.ac.i = fmul float %one.sub.a.i1, %368
- %mul.i = fmul float %32, %368
+ %one.sub.a.i1 = fsub float 1.000000e+00, %tmp760
+ %one.sub.ac.i = fmul float %one.sub.a.i1, %tmp367
+ %mul.i = fmul float %tmp31, %tmp367
%result.i2 = fadd float %mul.i, %one.sub.ac.i
- %762 = fcmp uge float %result.i14, 0x3E6FFFFE60000000
- %763 = select i1 %762, float %result.i14, float 0x3E6FFFFE60000000
- %764 = fcmp uge float %result.i10, 0x3E6FFFFE60000000
- %765 = select i1 %764, float %result.i10, float 0x3E6FFFFE60000000
- %766 = fcmp uge float %result.i6, 0x3E6FFFFE60000000
- %767 = select i1 %766, float %result.i6, float 0x3E6FFFFE60000000
- %768 = fcmp uge float %763, 6.550400e+04
- %769 = select i1 %768, float 6.550400e+04, float %763
- %770 = fcmp uge float %765, 6.550400e+04
- %771 = select i1 %770, float 6.550400e+04, float %765
- %772 = fcmp uge float %767, 6.550400e+04
- %773 = select i1 %772, float 6.550400e+04, float %767
- %774 = fmul float %result.i2, %52
- %775 = fadd float %774, %53
- %776 = call float @llvm.AMDIL.clamp.(float %775, float 0.000000e+00, float 1.000000e+00)
- %777 = call i32 @llvm.SI.packf16(float %769, float %771)
- %778 = bitcast i32 %777 to float
- %779 = call i32 @llvm.SI.packf16(float %773, float %776)
- %780 = bitcast i32 %779 to float
- call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %778, float %780, float %778, float %780)
+ %tmp761 = fcmp uge float %result.i14, 0x3E6FFFFE60000000
+ %tmp762 = select i1 %tmp761, float %result.i14, float 0x3E6FFFFE60000000
+ %tmp763 = fcmp uge float %result.i10, 0x3E6FFFFE60000000
+ %tmp764 = select i1 %tmp763, float %result.i10, float 0x3E6FFFFE60000000
+ %tmp765 = fcmp uge float %result.i6, 0x3E6FFFFE60000000
+ %tmp766 = select i1 %tmp765, float %result.i6, float 0x3E6FFFFE60000000
+ %tmp767 = fcmp uge float %tmp762, 6.550400e+04
+ %tmp768 = select i1 %tmp767, float 6.550400e+04, float %tmp762
+ %tmp769 = fcmp uge float %tmp764, 6.550400e+04
+ %tmp770 = select i1 %tmp769, float 6.550400e+04, float %tmp764
+ %tmp771 = fcmp uge float %tmp766, 6.550400e+04
+ %tmp772 = select i1 %tmp771, float 6.550400e+04, float %tmp766
+ %tmp773 = fmul float %result.i2, %tmp51
+ %tmp774 = fadd float %tmp773, %tmp52
+ %tmp775 = call float @llvm.AMDIL.clamp.(float %tmp774, float 0.000000e+00, float 1.000000e+00)
+ %tmp776 = call i32 @llvm.SI.packf16(float %tmp768, float %tmp770)
+ %tmp777 = bitcast i32 %tmp776 to float
+ %tmp778 = call i32 @llvm.SI.packf16(float %tmp772, float %tmp775)
+ %tmp779 = bitcast i32 %tmp778 to float
+ call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp777, float %tmp779, float %tmp777, float %tmp779)
ret void
ELSE214: ; preds = %ELSE211
- %781 = fcmp olt float %559, %81
- %782 = sext i1 %781 to i32
- %783 = bitcast i32 %782 to float
- %784 = bitcast float %783 to i32
- %785 = icmp ne i32 %784, 0
- %.230 = select i1 %785, float %104, float %100
- %.231 = select i1 %785, float %105, float %101
- %.232 = select i1 %785, float %106, float %102
- %.233 = select i1 %785, float %107, float %103
+ %tmp780 = fcmp olt float %tmp558, %tmp80
+ %tmp781 = sext i1 %tmp780 to i32
+ %tmp782 = bitcast i32 %tmp781 to float
+ %tmp783 = bitcast float %tmp782 to i32
+ %tmp784 = icmp ne i32 %tmp783, 0
+ %.230 = select i1 %tmp784, float %tmp103, float %tmp99
+ %.231 = select i1 %tmp784, float %tmp104, float %tmp100
+ %.232 = select i1 %tmp784, float %tmp105, float %tmp101
+ %.233 = select i1 %tmp784, float %tmp106, float %tmp102
br label %ENDIF209
}
; Function Attrs: readnone
-declare float @llvm.AMDIL.clamp.(float, float, float) #3
+declare float @llvm.AMDIL.clamp.(float, float, float) #1
; Function Attrs: nounwind readnone
declare <4 x float> @llvm.SI.sample.v2i32(<2 x i32>, <32 x i8>, <16 x i8>, i32) #2
@@ -1554,7 +1555,7 @@ declare <4 x float> @llvm.SI.sample.v2i3
declare <4 x float> @llvm.SI.samplel.v4i32(<4 x i32>, <32 x i8>, <16 x i8>, i32) #2
; Function Attrs: readnone
-declare float @llvm.AMDIL.exp.(float) #3
+declare float @llvm.AMDIL.exp.(float) #1
; Function Attrs: nounwind readnone
declare float @llvm.SI.load.const(<16 x i8>, i32) #2
@@ -1563,10 +1564,10 @@ declare float @llvm.SI.load.const(<16 x
declare float @llvm.SI.fs.interp(i32, i32, i32, <2 x i32>) #2
; Function Attrs: readnone
-declare i32 @llvm.SI.tid() #3
+declare i32 @llvm.SI.tid() #1
; Function Attrs: nounwind readonly
-declare float @ceil(float) #4
+declare float @ceil(float) #3
; Function Attrs: nounwind readnone
declare float @llvm.amdgcn.rsq.f32(float) #2
@@ -1575,10 +1576,10 @@ declare float @llvm.amdgcn.rsq.f32(float
declare <4 x float> @llvm.SI.sampled.v8i32(<8 x i32>, <32 x i8>, <16 x i8>, i32) #2
; Function Attrs: readnone
-declare <4 x float> @llvm.AMDGPU.cube(<4 x float>) #3
+declare <4 x float> @llvm.AMDGPU.cube(<4 x float>) #1
; Function Attrs: readnone
-declare float @fabs(float) #3
+declare float @fabs(float) #1
; Function Attrs: nounwind readnone
declare <4 x float> @llvm.SI.sample.v4i32(<4 x i32>, <32 x i8>, <16 x i8>, i32) #2
@@ -1591,13 +1592,10 @@ declare i32 @llvm.SI.packf16(float, floa
declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float)
-
-
-attributes #0 = { alwaysinline nounwind readnone }
-attributes #1 = { "ShaderType"="0" }
+attributes #0 = { "ShaderType"="0" }
+attributes #1 = { readnone }
attributes #2 = { nounwind readnone }
-attributes #3 = { readnone }
-attributes #4 = { nounwind readonly }
+attributes #3 = { nounwind readonly }
!0 = !{!1, !1, i64 0, i32 1}
!1 = !{!"const", null}
More information about the llvm-commits
mailing list