<div dir="ltr">r235431.<br></div><br><div class="gmail_quote">On Wed, 22 Apr 2015 at 08:45 James Molloy <<a href="mailto:james@jamesmolloy.co.uk">james@jamesmolloy.co.uk</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Michael and Gerolf,<br><br><span style="font-size:13.1999998092651px">Gerolf, I agree in general terms. However in gobmk these madds being removed are not being strength reduced, they are redundant. Not only that but they hold two registers live as arguments, so we're reducing both number of instructions and register pressure and not increasing any other metric. However the gain will depend on the number of multiply functional units your microarchitecture has.</span><div><br>Michael, thanks for that explanation. It shows that there really is a problem, where GEP matching is superior to arithmetic matching. It may just be that the pointer arithmetic emitted by GEP lowering differs slightly from canonical form and that is what our instruction selector is tuned for. But it's certainly nontrivial so that, combined with the other issues, makes me inclined to turn it off by default.<div><br></div><div>However, I robustly defend the position I took. I don't think pointing the finger at a pass due to one testcase over 9 months later and asking to disable that pass, without looking for an underlying cause, is the best way of improving LLVM. If the pass were newly added, I would feel differently of course.</div><div><br></div><div>Cheers,</div><div><br></div><div>James</div><div><br></div><div><br></div></div></div><br><div class="gmail_quote">On Wed, 22 Apr 2015 at 03:00 Michael Zolotukhin <<a href="mailto:mzolotukhin@apple.com" target="_blank">mzolotukhin@apple.com</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word">Hi James,<div><br></div><div>I’ve spent some time getting familiar with the source and looking into the generated assembly, and here is what I found.<br><div><br></div><div>First, let me start with some examples where the pass did some not-optimzal transformation. The code snippets are from random functions (not necessarily hot ones), but they still should give the idea.</div><div><br></div><div><b>Case 1:</b></div><div><div><u>gepopt=true+D9148:</u></div><div><font face="Menlo">mul<span style="white-space:pre-wrap">  </span> x8, x8, x9</font></div><div><font face="Menlo">stp<span style="white-space:pre-wrap">   </span>x11, x8, [sp, #32]</font></div><div><font face="Menlo">add<span style="white-space:pre-wrap">    </span>x8, x25, #8</font></div><div><font face="Menlo">str<span style="white-space:pre-wrap">   </span>x8, [sp, #48]</font></div><div><font face="Menlo">add<span style="white-space:pre-wrap"> </span>x8, x25, #56</font></div><div><font face="Menlo">str<span style="white-space:pre-wrap">  </span>x8, [sp, #16]</font></div><div><font face="Menlo">movz<span style="white-space:pre-wrap">        </span>w8, #72</font></div><div><font face="Menlo">mul<span style="white-space:pre-wrap">       </span> x22, x26, x8</font></div><div><font face="Menlo">add<span style="white-space:pre-wrap"> </span>x8, x25, x22</font></div><div><font face="Menlo">ldrb<span style="white-space:pre-wrap"> </span>w10, [x8, #23]</font></div><div><font face="Menlo">sxtb<span style="white-space:pre-wrap">       </span>w9, w10</font></div><div><font face="Menlo">ldr<span style="white-space:pre-wrap">       </span>x11, [sp, #48]</font></div><div><font face="Menlo">ldr<span style="white-space:pre-wrap">        </span>x11, [x11, x22]</font></div></div><div><br></div><div><u>gepopt=false:</u></div><div><div><font face="Menlo">mul<span style="white-space:pre-wrap">        </span> x28, x8, x9</font></div><div><font face="Menlo">movz<span style="white-space:pre-wrap"> </span>w8, #72</font></div><div><font face="Menlo">madd<span style="white-space:pre-wrap">      </span>x8, x26, x8, x25</font></div><div><font face="Menlo">ldrb<span style="white-space:pre-wrap">     </span>w10, [x8, #23]</font></div><div><font face="Menlo">sxtb<span style="white-space:pre-wrap">       </span>w9, w10</font></div><div><font face="Menlo">ldr<span style="white-space:pre-wrap">       </span>x11, [x8, #8]</font></div></div><div><br></div><div>In this case we have a load from [x25+8+x26*72] address, and the pass split the expression into two parts: (x25+8) and (x26*72). That increased register pressure, and we had to generate a spill-fill pair for (x25+8) expression. Without the pass we generated madd and a load with a simple addressing mode.</div><div><br></div><div><br></div><div><b>Case 2:</b></div><div><u>Gepopt=true+D9148:</u></div><div><div><font face="Menlo">ldr<span style="white-space:pre-wrap">   </span>x22, [x0, #136]</font></div><div><font face="Menlo">orr<span style="white-space:pre-wrap">       </span>w9, wzr, #0x18</font></div><div><font face="Menlo">mul<span style="white-space:pre-wrap">        </span> x8, x8, x9</font></div><div><font face="Menlo">add<span style="white-space:pre-wrap">   </span>x23, x22, x8</font></div><div><font face="Menlo">str<span style="white-space:pre-wrap">  </span>wzr, [x23]</font></div><div><font face="Menlo">orr<span style="white-space:pre-wrap">    </span>x26, x8, #0x4</font></div><div><font face="Menlo">str<span style="white-space:pre-wrap"> </span>wzr, [x26, x22]</font></div><div><font face="Menlo">add<span style="white-space:pre-wrap">       </span>x24, x8, #8</font></div><div><font face="Menlo">str<span style="white-space:pre-wrap">   </span>wzr, [x24, x22]</font></div><div><font face="Menlo">add<span style="white-space:pre-wrap">       </span>x25, x8, #16</font></div><div><font face="Menlo">ldr<span style="white-space:pre-wrap">  </span>x27, [x25, x22]</font></div><div><font face="Menlo">cbz<span style="white-space:pre-wrap">       </span>x27, 0xABCDABCD</font></div><div><br></div></div><div><u>Gepopt=false:</u></div><div><div><font face="Menlo">ldr<span style="white-space:pre-wrap">        </span>x9, [x0, #136]</font></div><div><font face="Menlo">orr<span style="white-space:pre-wrap">        </span>w10, wzr, #0x18</font></div><div><font face="Menlo">madd<span style="white-space:pre-wrap">      </span>x22, x8, x10, x9</font></div><div><font face="Menlo">str<span style="white-space:pre-wrap">      </span>xzr, [x22]</font></div><div><font face="Menlo">str<span style="white-space:pre-wrap">    </span>wzr, [x22, #8]</font></div><div><font face="Menlo">ldr<span style="white-space:pre-wrap">        </span>x23, [x22, #16]</font></div><div><font face="Menlo">cbz<span style="white-space:pre-wrap">       </span>x23, 0xABCDABCD</font></div><div><br></div></div><div>In this case the hoisted common part seems to be just x22, and the we generate stores to [x22+x8*0x18], [x22+x8*0x18+4], and [x22+x8*0x18+8]. New addresses also seem to be more confusing for other optimization passes, so we weren’t able to merge adjacent stores, as we did with gepopt=false. We also didn’t fuse ‘add’ and ‘mul’ to ‘madd’ in this case.</div><div><br></div><div><br></div><div>Looking into these examples, I thought that the problem might be that we do this transformation always and unconditionally - we don’t check if it’s beneficial at all. This would work fine if the transformation is free, i.e. if codegen always can roll everything back. But it’s not free, and in cases when we don’t actually hit the target (i.e. hoist a common part of several GEP-expressions), we often lose.</div><div><br></div><div>I see how this pass can be beneficial for targets like NVPTX which (according to comments in SeparateConstOffsetFromGEP.cpp) don't support complex addressing modes with several registers. However, it’s not that clear whether it’s beneficial or not on targets like ARM64. I’m inclining to believe that turning this pass in the current state on by default was the ‘large hammer’. I still think it could be beneficial, but it needs some more work for it.</div><div><br></div><div>Thanks,</div><div>Michael</div></div></div><div style="word-wrap:break-word"><div><div><br></div><div><div><blockquote type="cite"><div>On Apr 21, 2015, at 11:38 AM, James Molloy <<a href="mailto:james@jamesmolloy.co.uk" target="_blank">james@jamesmolloy.co.uk</a>> wrote:</div><br><div>Hi Michael,<br><br>Thanks. I'll take a look tomorrow. At least this is nothing to do with the pass itself- if re association regresses instruction selection, something is fragile!<br><br>Will you have time to look at this one today? It's now 19:30 here and I'm away for the evening.<br><br>Cheers,<br><br>James<br><div class="gmail_quote">On Tue, 21 Apr 2015 at 19:36, Michael Zolotukhin <<a href="mailto:mzolotukhin@apple.com" target="_blank">mzolotukhin@apple.com</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word">Hi James,<div><br></div><div>It looks like the first patch gives nearly the same results as both patches together (at least, in terms of gains and regressions on geekbench). E.g. the code generated for mandelbrot is the same.</div><div><br></div><div>Thanks,</div><div>Michael</div></div><div style="word-wrap:break-word"><div><br><div><blockquote type="cite"><div>On Apr 21, 2015, at 11:29 AM, James Molloy <<a href="mailto:james@jamesmolloy.co.uk" target="_blank">james@jamesmolloy.co.uk</a>> wrote:</div><br><div>Hi Michael,<br><br>Jingue pointed out that my second patch did pessimize some code, so do you still see the regressions with my first patch (the reassoc one)?<br><br>Cheers,<br><br>James<br><div class="gmail_quote">On Tue, 21 Apr 2015 at 19:26, Michael Zolotukhin <<a href="mailto:mzolotukhin@apple.com" target="_blank">mzolotukhin@apple.com</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word">Hi James,<div><br></div><div>Thank you for taking your time to work on it! I tried the patches you posted and they did fix the problem on twofish. However, with them there are other regressions - and while you are at it, could you please take a look at the generated code? Probably, you can come up with another one-line fix.</div><div><br></div><div>So, one regression is on Geekbench/Mandlerbrot, here is the ‘fast’ and ‘slow’ disassembly files (fast - from reference compiler, slow - reference compiler+D9148+D9149).</div><div><br></div><div></div></div><div style="word-wrap:break-word"><div></div></div><div style="word-wrap:break-word"><div></div><div><br></div><div>I can see that we generate less ‘madd’ instructions, but in some cases we end up with less-optimal sequences, including ‘mul', ‘add' and ‘or' instead. Also, in some cases we now generate 2 ‘str' instead of 1 ‘stp'.</div><div><br></div><div>Do you have any ideas what might go wrong this time?</div><div><br></div><div>Thanks,</div><div>Michael</div></div><div style="word-wrap:break-word"><div><br><div><blockquote type="cite"><div>On Apr 21, 2015, at 6:55 AM, James Molloy <<a href="mailto:james@jamesmolloy.co.uk" target="_blank">james@jamesmolloy.co.uk</a>> wrote:</div><br></blockquote><blockquote type="cite"><div><div dir="ltr">See:<br><br><a href="http://reviews.llvm.org/D9148" target="_blank">http://reviews.llvm.org/D9148</a><br><div><a href="http://reviews.llvm.org/D9149" target="_blank">http://reviews.llvm.org/D9149</a><br></div><div><br></div><div>Cheers,</div><div><br></div><div>James</div></div><br><div class="gmail_quote">On Tue, 21 Apr 2015 at 12:06 James Molloy <<a href="mailto:james@jamesmolloy.co.uk" target="_blank">james@jamesmolloy.co.uk</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Michael, Gerolf,<br><br><div>The main goal of this optimization was to reduce the number of multiply-adds emitted when complex GEPs are used. With regards to SPEC, this is particularly prevalent in sjeng and gobmk (although we don't just care about SPEC and there were plenty of other places we caught this idiom).</div><div><br></div><div>The pass is actively reducing the number of multiply-adds in gobmk:</div><div><br></div><div>$ llc engine.ll -O3 -mllvm -aarch64-gep-opt=false -o - |& grep madd | wc -l</div><div> 297</div><div><br></div><div>$ llc engine.ll -O3 -mllvm -aarch64-gep-opt=true -o - |& grep madd | wc -l</div><div> 158</div><div><br></div><div>So it demonstrably is making at least some code better.</div><div><br></div><div>I was able to reproduce your twofish example. Twofish, like most crypto algorithms, has a pattern repeated many times so the problem could just be down to one pattern producing one more instruction, which it turns out is exactly the case.</div><div><br></div><div>The problem is that with gep-opt enabled, we're associating shifts and constants the other way around.</div><div><br></div><div>With gep-opt disabled (synthetic code example):</div><div>   add x0, x0, #72</div><div>   ldr x0, [x1, x0, lsl #2]</div><div><br></div><div>With gep-opt enabled:</div><div>   add x0, x1, x0, lsl #2</div><div>   ldr x0, [x0, #72]</div><div><br></div><div>This is actually fine, until another expression reuses a different shift with the same offset:</div><div><br></div><div>With gep-opt disabled:</div><div>   add x0, x0, #72</div><div>   ldr x0, [x1, x0, lsl #2]</div><div>   ldr x2, [x1, x0, lsl #3]</div><div><br></div><div>With gep-opt enabled:</div><div>   add x0, x1, x0, lsl #2</div><div>   add x2, x1, x0, lsl #3</div><div>   ldr x0, [x0, #72]</div><div>   ldr x2, [x0, #72]</div><div><br></div><div>Amusingly, I saw the opposite behaviour on AArch32 on a different testcase and came to the conclusion that expressions with correlated immediate offsets and identical shift amounts were more likely than expressions with correlated shift amounts and identical immediate offsets, but that's a different story.</div><div><br></div><div>Anyway, the reason this is happening is because we're not running reassociate after GEP expansion. If we run reassociate it all goes away, it's a one-line fix.</div><div><br></div><div>The two testcases that were disabled - well, they weren't really disabled, but the behaviour was changed for them. I put that down to a bug in the SeparateConstOffsetFromGEP pass, where it tries to separate a GEP with only one variadic offset:</div><div><br></div><div>  GEP i8* %base, i32 %offset</div><div><br></div><div>Nothing beneficial can come of that, so I've got, again, a single line patch to fix this. I'll push both patches upstream just as soon as I verify them.</div><div><br></div><div>So in summary, I don't see any need to disable this pass. It's doing good work, it just has one or two bugs.</div><div><br></div><div>Cheers,</div><div><br></div><div>James</div></div><br><div class="gmail_quote">On Tue, 21 Apr 2015 at 05:27 Michael Zolotukhin <<a href="mailto:mzolotukhin@apple.com" target="_blank">mzolotukhin@apple.com</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Tim and others,<br>
<br>
So, the entire discussion is moving around the assumption that this pass is beneficial in some cases, but we don’t have such data. Please note that I don’t want to say that the assumption is wrong, but as far as I understand, only Hao observed some gains. Thus, until we hear from him, we have real slow downs versus presumable gains.<br>
<br>
As for the looking into the code later - I’m not an expert in this area, and I don’t even have a motivational example for this optimization, so I’d barely be a right person for it. I’d be glad to assist with collecting some additional data/running tests if that might help though.<br>
<br>
Thanks,<br>
Michael<br>
<br>
<br>
> On Apr 20, 2015, at 8:40 PM, Tim Northover <<a href="mailto:t.p.northover@gmail.com" target="_blank">t.p.northover@gmail.com</a>> wrote:<br>
><br>
> On 20 April 2015 at 20:34, Gerolf Hoflehner <<a href="mailto:ghoflehner@apple.com" target="_blank">ghoflehner@apple.com</a>> wrote:<br>
>> It shouldn’t come across as ‘extreme’.<br>
><br>
> The "extreme" part wasn't so much the tentative disabling as "Could<br>
> you and/or Hao take this on after the code is disabled/backed out?". I<br>
> realise it wasn't an ultimatum, but it could very easily turn into<br>
> "we're washing our hands of this", which I'd object to.<br>
><br>
> I assume the pass was committed with some kind of metric that it<br>
> improved, and now we have a counter-example. It's down to everyone to<br>
> decide what the best way to proceed is.<br>
><br>
> Cheers.<br>
><br>
> Tim.<br>
><br>
> _______________________________________________<br>
> llvm-commits mailing list<br>
> <a href="mailto:llvm-commits@cs.uiuc.edu" target="_blank">llvm-commits@cs.uiuc.edu</a><br>
> <a href="http://lists.cs.uiuc.edu/mailman/listinfo/llvm-commits" target="_blank">http://lists.cs.uiuc.edu/mailman/listinfo/llvm-commits</a><br>
<br>
<br>
_______________________________________________<br>
llvm-commits mailing list<br>
<a href="mailto:llvm-commits@cs.uiuc.edu" target="_blank">llvm-commits@cs.uiuc.edu</a><br>
<a href="http://lists.cs.uiuc.edu/mailman/listinfo/llvm-commits" target="_blank">http://lists.cs.uiuc.edu/mailman/listinfo/llvm-commits</a><br>
</blockquote></div></blockquote></div>
</div></blockquote></div><br></div></div></blockquote></div>
</div></blockquote></div><br></div></div></blockquote></div>
</div></blockquote></div><br></div></div></div></blockquote></div></blockquote></div>