[llvm] r367588 - [TargetLowering] SimplifyMultipleUseDemandedBits - Add ISD::INSERT_VECTOR_ELT handling
Simon Pilgrim via llvm-commits
llvm-commits at lists.llvm.org
Thu Aug 1 10:46:44 PDT 2019
Author: rksimon
Date: Thu Aug 1 10:46:44 2019
New Revision: 367588
URL: http://llvm.org/viewvc/llvm-project?rev=367588&view=rev
Log:
[TargetLowering] SimplifyMultipleUseDemandedBits - Add ISD::INSERT_VECTOR_ELT handling
Allow us to peek through vector insertions to avoid dependencies on entire insertion chains.
Modified:
llvm/trunk/lib/CodeGen/SelectionDAG/TargetLowering.cpp
llvm/trunk/test/CodeGen/X86/vec_smulo.ll
llvm/trunk/test/CodeGen/X86/vec_umulo.ll
Modified: llvm/trunk/lib/CodeGen/SelectionDAG/TargetLowering.cpp
URL: http://llvm.org/viewvc/llvm-project/llvm/trunk/lib/CodeGen/SelectionDAG/TargetLowering.cpp?rev=367588&r1=367587&r2=367588&view=diff
==============================================================================
--- llvm/trunk/lib/CodeGen/SelectionDAG/TargetLowering.cpp (original)
+++ llvm/trunk/lib/CodeGen/SelectionDAG/TargetLowering.cpp Thu Aug 1 10:46:44 2019
@@ -676,6 +676,16 @@ SDValue TargetLowering::SimplifyMultiple
return Op.getOperand(0);
break;
}
+ case ISD::INSERT_VECTOR_ELT: {
+ // If we don't demand the inserted element, return the base vector.
+ SDValue Vec = Op.getOperand(0);
+ auto *CIdx = dyn_cast<ConstantSDNode>(Op.getOperand(2));
+ MVT VecVT = Vec.getSimpleValueType();
+ if (CIdx && CIdx->getAPIntValue().ult(VecVT.getVectorNumElements()) &&
+ !DemandedElts[CIdx->getZExtValue()])
+ return Vec;
+ break;
+ }
case ISD::VECTOR_SHUFFLE: {
ArrayRef<int> ShuffleMask = cast<ShuffleVectorSDNode>(Op)->getMask();
Modified: llvm/trunk/test/CodeGen/X86/vec_smulo.ll
URL: http://llvm.org/viewvc/llvm-project/llvm/trunk/test/CodeGen/X86/vec_smulo.ll?rev=367588&r1=367587&r2=367588&view=diff
==============================================================================
--- llvm/trunk/test/CodeGen/X86/vec_smulo.ll (original)
+++ llvm/trunk/test/CodeGen/X86/vec_smulo.ll Thu Aug 1 10:46:44 2019
@@ -704,46 +704,46 @@ define <6 x i32> @smulo_v6i32(<6 x i32>
; SSE41-LABEL: smulo_v6i32:
; SSE41: # %bb.0:
; SSE41-NEXT: movq %rdi, %rax
-; SSE41-NEXT: movd %esi, %xmm3
-; SSE41-NEXT: pinsrd $1, %edx, %xmm3
-; SSE41-NEXT: pinsrd $2, %ecx, %xmm3
-; SSE41-NEXT: pinsrd $3, %r8d, %xmm3
-; SSE41-NEXT: movd {{.*#+}} xmm0 = mem[0],zero,zero,zero
-; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm0
-; SSE41-NEXT: movd %r9d, %xmm1
+; SSE41-NEXT: movd %esi, %xmm2
+; SSE41-NEXT: pinsrd $1, %edx, %xmm2
+; SSE41-NEXT: pinsrd $2, %ecx, %xmm2
+; SSE41-NEXT: movd {{.*#+}} xmm1 = mem[0],zero,zero,zero
; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm1
-; SSE41-NEXT: movd {{.*#+}} xmm2 = mem[0],zero,zero,zero
-; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm2
-; SSE41-NEXT: pinsrd $2, {{[0-9]+}}(%rsp), %xmm2
-; SSE41-NEXT: pinsrd $3, {{[0-9]+}}(%rsp), %xmm2
+; SSE41-NEXT: pinsrd $2, {{[0-9]+}}(%rsp), %xmm1
+; SSE41-NEXT: movdqa %xmm1, %xmm0
+; SSE41-NEXT: pmuldq %xmm2, %xmm1
+; SSE41-NEXT: pinsrd $3, %r8d, %xmm2
+; SSE41-NEXT: movd {{.*#+}} xmm3 = mem[0],zero,zero,zero
+; SSE41-NEXT: movd %r9d, %xmm4
+; SSE41-NEXT: movdqa %xmm4, %xmm5
+; SSE41-NEXT: pmuldq %xmm3, %xmm4
+; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm3
+; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm5
+; SSE41-NEXT: pmulld %xmm3, %xmm5
+; SSE41-NEXT: pinsrd $3, {{[0-9]+}}(%rsp), %xmm0
; SSE41-NEXT: movq {{[0-9]+}}(%rsp), %rcx
-; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm3[1,1,3,3]
-; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm2[1,1,3,3]
-; SSE41-NEXT: pmuldq %xmm4, %xmm5
-; SSE41-NEXT: movdqa %xmm3, %xmm4
-; SSE41-NEXT: pmuldq %xmm2, %xmm4
-; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
-; SSE41-NEXT: pblendw {{.*#+}} xmm4 = xmm4[0,1],xmm5[2,3],xmm4[4,5],xmm5[6,7]
-; SSE41-NEXT: pmulld %xmm3, %xmm2
-; SSE41-NEXT: movdqa %xmm2, (%rcx)
-; SSE41-NEXT: psrad $31, %xmm2
-; SSE41-NEXT: pcmpeqd %xmm4, %xmm2
-; SSE41-NEXT: pcmpeqd %xmm3, %xmm3
-; SSE41-NEXT: pxor %xmm3, %xmm2
-; SSE41-NEXT: movd {{.*#+}} xmm4 = mem[0],zero,zero,zero
-; SSE41-NEXT: movd {{.*#+}} xmm5 = mem[0],zero,zero,zero
-; SSE41-NEXT: pmuldq %xmm4, %xmm5
-; SSE41-NEXT: movdqa %xmm1, %xmm4
-; SSE41-NEXT: pmuldq %xmm0, %xmm4
-; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
-; SSE41-NEXT: pblendw {{.*#+}} xmm4 = xmm4[0,1],xmm5[2,3],xmm4[4,5],xmm5[6,7]
-; SSE41-NEXT: pmulld %xmm0, %xmm1
-; SSE41-NEXT: movq %xmm1, 16(%rcx)
-; SSE41-NEXT: psrad $31, %xmm1
-; SSE41-NEXT: pcmpeqd %xmm4, %xmm1
-; SSE41-NEXT: pxor %xmm3, %xmm1
-; SSE41-NEXT: movq %xmm1, 16(%rdi)
-; SSE41-NEXT: movdqa %xmm2, (%rdi)
+; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm2[1,1,3,3]
+; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
+; SSE41-NEXT: pmuldq %xmm3, %xmm6
+; SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm1[1,1,3,3]
+; SSE41-NEXT: pblendw {{.*#+}} xmm1 = xmm1[0,1],xmm6[2,3],xmm1[4,5],xmm6[6,7]
+; SSE41-NEXT: pmulld %xmm2, %xmm0
+; SSE41-NEXT: movdqa %xmm0, (%rcx)
+; SSE41-NEXT: psrad $31, %xmm0
+; SSE41-NEXT: pcmpeqd %xmm1, %xmm0
+; SSE41-NEXT: pcmpeqd %xmm1, %xmm1
+; SSE41-NEXT: pxor %xmm1, %xmm0
+; SSE41-NEXT: movd {{.*#+}} xmm2 = mem[0],zero,zero,zero
+; SSE41-NEXT: movd {{.*#+}} xmm3 = mem[0],zero,zero,zero
+; SSE41-NEXT: pmuldq %xmm2, %xmm3
+; SSE41-NEXT: pshufd {{.*#+}} xmm2 = xmm4[1,1,3,3]
+; SSE41-NEXT: pblendw {{.*#+}} xmm2 = xmm2[0,1],xmm3[2,3],xmm2[4,5],xmm3[6,7]
+; SSE41-NEXT: movq %xmm5, 16(%rcx)
+; SSE41-NEXT: psrad $31, %xmm5
+; SSE41-NEXT: pcmpeqd %xmm2, %xmm5
+; SSE41-NEXT: pxor %xmm1, %xmm5
+; SSE41-NEXT: movq %xmm5, 16(%rdi)
+; SSE41-NEXT: movdqa %xmm0, (%rdi)
; SSE41-NEXT: retq
;
; AVX1-LABEL: smulo_v6i32:
Modified: llvm/trunk/test/CodeGen/X86/vec_umulo.ll
URL: http://llvm.org/viewvc/llvm-project/llvm/trunk/test/CodeGen/X86/vec_umulo.ll?rev=367588&r1=367587&r2=367588&view=diff
==============================================================================
--- llvm/trunk/test/CodeGen/X86/vec_umulo.ll (original)
+++ llvm/trunk/test/CodeGen/X86/vec_umulo.ll Thu Aug 1 10:46:44 2019
@@ -607,45 +607,45 @@ define <6 x i32> @umulo_v6i32(<6 x i32>
; SSE41-LABEL: umulo_v6i32:
; SSE41: # %bb.0:
; SSE41-NEXT: movq %rdi, %rax
-; SSE41-NEXT: movd %esi, %xmm0
-; SSE41-NEXT: pinsrd $1, %edx, %xmm0
-; SSE41-NEXT: pinsrd $2, %ecx, %xmm0
-; SSE41-NEXT: pinsrd $3, %r8d, %xmm0
+; SSE41-NEXT: movd %esi, %xmm2
+; SSE41-NEXT: pinsrd $1, %edx, %xmm2
+; SSE41-NEXT: pinsrd $2, %ecx, %xmm2
; SSE41-NEXT: movd {{.*#+}} xmm1 = mem[0],zero,zero,zero
; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm1
-; SSE41-NEXT: movd %r9d, %xmm2
-; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm2
+; SSE41-NEXT: pinsrd $2, {{[0-9]+}}(%rsp), %xmm1
+; SSE41-NEXT: movdqa %xmm1, %xmm0
+; SSE41-NEXT: pmuludq %xmm2, %xmm1
+; SSE41-NEXT: pinsrd $3, %r8d, %xmm2
; SSE41-NEXT: movd {{.*#+}} xmm3 = mem[0],zero,zero,zero
+; SSE41-NEXT: movd %r9d, %xmm4
+; SSE41-NEXT: movdqa %xmm4, %xmm5
+; SSE41-NEXT: pmuludq %xmm3, %xmm4
; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm3
-; SSE41-NEXT: pinsrd $2, {{[0-9]+}}(%rsp), %xmm3
-; SSE41-NEXT: pinsrd $3, {{[0-9]+}}(%rsp), %xmm3
+; SSE41-NEXT: pinsrd $1, {{[0-9]+}}(%rsp), %xmm5
+; SSE41-NEXT: pmulld %xmm3, %xmm5
+; SSE41-NEXT: pinsrd $3, {{[0-9]+}}(%rsp), %xmm0
; SSE41-NEXT: movq {{[0-9]+}}(%rsp), %rcx
-; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
-; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm3[1,1,3,3]
-; SSE41-NEXT: pmuludq %xmm4, %xmm5
-; SSE41-NEXT: movdqa %xmm0, %xmm4
-; SSE41-NEXT: pmuludq %xmm3, %xmm4
-; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
-; SSE41-NEXT: pblendw {{.*#+}} xmm4 = xmm4[0,1],xmm5[2,3],xmm4[4,5],xmm5[6,7]
+; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm2[1,1,3,3]
+; SSE41-NEXT: pshufd {{.*#+}} xmm6 = xmm0[1,1,3,3]
+; SSE41-NEXT: pmuludq %xmm3, %xmm6
+; SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm1[1,1,3,3]
+; SSE41-NEXT: pblendw {{.*#+}} xmm1 = xmm1[0,1],xmm6[2,3],xmm1[4,5],xmm6[6,7]
; SSE41-NEXT: pxor %xmm8, %xmm8
-; SSE41-NEXT: pcmpeqd %xmm8, %xmm4
+; SSE41-NEXT: pcmpeqd %xmm8, %xmm1
; SSE41-NEXT: pcmpeqd %xmm6, %xmm6
-; SSE41-NEXT: pxor %xmm6, %xmm4
+; SSE41-NEXT: pxor %xmm6, %xmm1
; SSE41-NEXT: movd {{.*#+}} xmm7 = mem[0],zero,zero,zero
-; SSE41-NEXT: movd {{.*#+}} xmm5 = mem[0],zero,zero,zero
-; SSE41-NEXT: pmuludq %xmm7, %xmm5
-; SSE41-NEXT: movdqa %xmm2, %xmm7
-; SSE41-NEXT: pmuludq %xmm1, %xmm7
-; SSE41-NEXT: pshufd {{.*#+}} xmm7 = xmm7[1,1,3,3]
-; SSE41-NEXT: pblendw {{.*#+}} xmm7 = xmm7[0,1],xmm5[2,3],xmm7[4,5],xmm5[6,7]
-; SSE41-NEXT: pcmpeqd %xmm8, %xmm7
-; SSE41-NEXT: pxor %xmm6, %xmm7
-; SSE41-NEXT: pmulld %xmm0, %xmm3
-; SSE41-NEXT: pmulld %xmm1, %xmm2
-; SSE41-NEXT: movq %xmm2, 16(%rcx)
-; SSE41-NEXT: movdqa %xmm3, (%rcx)
-; SSE41-NEXT: movq %xmm7, 16(%rdi)
-; SSE41-NEXT: movdqa %xmm4, (%rdi)
+; SSE41-NEXT: movd {{.*#+}} xmm3 = mem[0],zero,zero,zero
+; SSE41-NEXT: pmuludq %xmm7, %xmm3
+; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm4[1,1,3,3]
+; SSE41-NEXT: pblendw {{.*#+}} xmm4 = xmm4[0,1],xmm3[2,3],xmm4[4,5],xmm3[6,7]
+; SSE41-NEXT: pcmpeqd %xmm8, %xmm4
+; SSE41-NEXT: pxor %xmm6, %xmm4
+; SSE41-NEXT: pmulld %xmm2, %xmm0
+; SSE41-NEXT: movq %xmm5, 16(%rcx)
+; SSE41-NEXT: movdqa %xmm0, (%rcx)
+; SSE41-NEXT: movq %xmm4, 16(%rdi)
+; SSE41-NEXT: movdqa %xmm1, (%rdi)
; SSE41-NEXT: retq
;
; AVX1-LABEL: umulo_v6i32:
More information about the llvm-commits
mailing list