<div dir="ltr"><div>InstCombine is not intended to use a cost model, so I don't think that is an option for store splitting.</div><div>This should probably be implemented as a pattern match starting from DAGCombiner::visitSTORE() and using a TLI hook. The TLI function would include parameters for the vector value type and a number to specify the maximum scalar stores the target is willing to create to replace the vector load+store. So for example, we could decide it is profitable to replace load+store of v4f32 with two f32 stores, but it's not profitable to replace load+store of v16i8 with fifteen i8 stores.<br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Oct 8, 2019 at 1:58 PM Qiu Chaofan <<a href="mailto:fwage73@gmail.com" target="_blank">fwage73@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">> would it perhaps make sense to canonicalize this to a masked store?<br>
<br>
Thanks for the reminder. It should help. There should also be<br>
something missing/limited in `InstCombineVectorOps`.<br>
<br>
> Should this have been translated to GEP+scalar stores by clang rather than vector load+store?<br>
<br>
Thanks for your comment! Implementing this in Clang (at `CGExpr`) is a<br>
reasonable way. But it may break some existing assumptions/assertions,<br>
and won't benefit other language.<br>
<br>
In the same time, I think, if we want to do this in `InstCombine` or<br>
other backend transformations, it's important to build a cost model<br>
(like in SLP vectorizer). Otherwise, a series of STOREs split first<br>
and then combined is meaningless. Can I use existing infrastructure in<br>
`TargetTransformInfo` to determine if splitting them is better?<br>
<br>
Regards,<br>
Chaofan<br>
<br>
Sanjay Patel <<a href="mailto:spatel@rotateright.com" target="_blank">spatel@rotateright.com</a>> 于2019年10月4日周五 下午8:36写道:<br>
><br>
> Canonicalizing to a masked store intrinsic is possible, but we might have to expand back to the load/shuffle/store sequence for targets that don't support masked store. And then you'd likely have to do the store splitting that I think is being requested for the original pattern anyway.<br>
><br>
> But I'd like to step back to the premise - "LLVM seems to always generate vector instructions for vector operations in C, even it's just simple stores."<br>
> That's not correct. It's not LLVM that created the vector memory accesses. That's how the IR begins from clang:<br>
><br>
> define void @foo(<4 x float>* %a) #0 {<br>
> entry:<br>
>   %a.addr = alloca <4 x float>*, align 8<br>
>   store <4 x float>* %a, <4 x float>** %a.addr, align 8, !tbaa !3<br>
>   %0 = load <4 x float>*, <4 x float>** %a.addr, align 8, !tbaa !3<br>
>   %1 = load <4 x float>, <4 x float>* %0, align 16<br>
>   %vecins = insertelement <4 x float> %1, float 1.000000e+00, i32 0<br>
>   store <4 x float> %vecins, <4 x float>* %0, align 16<br>
>   %2 = load <4 x float>*, <4 x float>** %a.addr, align 8, !tbaa !3<br>
>   %3 = load <4 x float>, <4 x float>* %2, align 16<br>
>   %vecins1 = insertelement <4 x float> %3, float 2.000000e+00, i32 3<br>
>   store <4 x float> %vecins1, <4 x float>* %2, align 16<br>
>   ret void<br>
> }<br>
><br>
> Should this have been translated to GEP+scalar stores by clang rather than vector load+store?<br>
><br>
><br>
> On Thu, Oct 3, 2019 at 12:33 PM Nemanja Ivanovic via llvm-dev <<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a>> wrote:<br>
>><br>
>> Just out of curiosity,<br>
>> would it perhaps make sense to canonicalize this to a masked store?<br>
>><br>
>> Nemanja<br>
>><br>
>> On Thu, Sep 26, 2019 at 10:59 PM Qiu Chaofan via llvm-dev <<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a>> wrote:<br>
>>><br>
>>> > I may be missing something obvious, but what is `vector` defined as here? Can you provide a buildable example?<br>
>>><br>
>>> Sorry, I should provide a cross-platform version using vector<br>
>>> extension of frontend :) `vector int` is a vector extension on<br>
>>> PowerPC, which is enabled if you set target to PowerPC platforms.<br>
>>> Example below should be successfully compiled in any platform:<br>
>>><br>
>>>     typedef float v4sf __attribute__ ((vector_size(16)));<br>
>>><br>
>>>     void foo(v4sf *a) {<br>
>>>       (*a)[0] = 1;<br>
>>>       (*a)[3] = 2;<br>
>>>     }<br>
>>><br>
>>> And we can get the IR mentioned before:<br>
>>><br>
>>>     %0 = load <4 x float>, <4 x float>* %a, align 16<br>
>>>     %vecins1 = shufflevector <4 x float> <float 1.000000e+00, float<br>
>>> undef, float undef, float 2.000000e+00>, <4 x float> %0, <4 x i32><br>
>>> <i32 0, i32 5, i32 6, i32 3><br>
>>>     store <4 x float> %vecins1, <4 x float>* %a, align 16<br>
>>><br>
>>> Regards,<br>
>>> Qiu Chaofan<br>
>>><br>
>>><br>
>>> Florian Hahn <<a href="mailto:florian_hahn@apple.com" target="_blank">florian_hahn@apple.com</a>> 于2019年9月26日周四 下午7:15写道:<br>
>>> ><br>
>>> > Hi<br>
>>> ><br>
>>> > > On Sep 26, 2019, at 10:53, Qiu Chaofan via llvm-dev <<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a>> wrote:<br>
>>> > ><br>
>>> > > Hi there,<br>
>>> > ><br>
>>> > > I notice that LLVM seems to always generate vector instructions for<br>
>>> > > vector operations in C, even it's just simple stores:<br>
>>> > ><br>
>>> > > void foo(vector int* c) {<br>
>>> > >  (*c)[0] = 1;<br>
>>> > >  (*c)[1] = 2;<br>
>>> > > }<br>
>>> > ><br>
>>> ><br>
>>> > I may be missing something obvious, but what is `vector` defined as here? Can you provide a buildable example?<br>
>>> ><br>
>>> > > %0 = load <4 x i32>, <4 x i32>* %c, align 16<br>
>>> > > %vecins1 = shufflevector <4 x i32> <i32 1, i32 2, i32 undef, i32<br>
>>> > > undef>, <4 x i32> %0, <4 x i32> <i32 0, i32 1, i32 6, i32 7><br>
>>> > > store <4 x i32> %vecins1, <4 x i32>* %c, align 16<br>
>>> > ><br>
>>> ><br>
>>> > For some reason, we load 4 elements from %c and write the last 2 elements back unchanged. This causes sub-optimal codegen here. We could do a better job at dropping the writes of unchanged elements. But from the original code, it is not immediately obvious to me why we generate them in the first place. Maybe we could avoid generating them?<br>
>>> ><br>
>>> > Cheers,<br>
>>> > Florian<br>
>>> _______________________________________________<br>
>>> LLVM Developers mailing list<br>
>>> <a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a><br>
>>> <a href="https://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev" rel="noreferrer" target="_blank">https://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev</a><br>
>><br>
>> _______________________________________________<br>
>> LLVM Developers mailing list<br>
>> <a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a><br>
>> <a href="https://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev" rel="noreferrer" target="_blank">https://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev</a><br>
</blockquote></div></div>