<div dir="ltr">I understand it would be interesting to see performance impacts of a set of benchmarks even under -Oz optimization.<br>However, I'm not familiar with LNT and its process. I assume this does not need to run tests on local (arm64) devices, right? If that is the case, I do not have resource/way to measure them locally. The large benchmark and rough performance implication I mentioned is from some internal tests from automation which I simply submitted, but I couldn't share details unfortunately.<br>If running LNT does not require a local device, can you share a point of how I can submit or access such infrastructure to test new compiler?<div><br></div><div>Regards,</div><div>Kyungwoo</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Mar 25, 2020 at 11:17 AM Vedant Kumar <<a href="mailto:vedant_kumar@apple.com">vedant_kumar@apple.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div style="overflow-wrap: break-word;">I see. I think it’d help with the upstreaming effort to have some more concrete details about performance measurements, so that potential adopters can get a rough understanding of the expected impact. In particular, if you could share:<div><br><div>- a run-time performance comparison over a representative subset of benchmarks from LNT (aarch64/-Oz), taken from a stabilized device</div><div>- some explanation for any performance differences seen in ^</div><div>- ditto for a code size comparison over LNT</div><div>- some brief explanation of the methodology used to measure app startup time and the # of page faults before app startup completes</div><div><br></div><div>That would be very valuable.</div><div><br></div><div>best,</div><div>vedant</div><div><div><br><blockquote type="cite"><div>On Mar 24, 2020, at 2:04 PM, Kyungwoo Lee <<a href="mailto:kyulee.llvm@gmail.com" target="_blank">kyulee.llvm@gmail.com</a>> wrote:</div><br><div><div dir="ltr">Hi <span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap">Vedant,</span><div><span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap"><br></span></div><div><span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap">Thanks for your interest and comment.</span></div><div><span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap">Size-optimization improves page-faults and a start-up time for a large application, which this enabling also followed. </span></div><div><span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap">Even though I didn't see a large regression/complaint on a CPU-bound case, which is not a typical case for mobile workload, I wanted to be precautious of enabling it by default.</span></div><div><span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap">However, as with default outlining case, I don't mind enabling this under -Oz (for minimizing code) with an opt-out option.</span></div><div><span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap"><br></span></div><div><span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap">Regards,</span></div><div><span style="color:rgb(32,33,36);font-size:0.875rem;letter-spacing:0.2px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;white-space:nowrap">Kyungwoo</span></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Mar 24, 2020 at 12:01 PM Vedant Kumar <<a href="mailto:vedant_kumar@apple.com" target="_blank">vedant_kumar@apple.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div>This looks really interesting. In the slides, it’s mentioned that the combination of tuning the MachineOutliner for ThinLTO and of optimizing function prolog/epilogs improved measured run-time performance.<div><br></div><div>What kind of performance impact do you see from simply homogenizing prolog/epilogs? (If, say across LNT/aarch64/-Oz the performance impact is not large, it may make sense to have homogenization enabled by default.)</div><div><br></div><div>best,</div><div>vedant<br><div><br><blockquote type="cite"><div>On Mar 23, 2020, at 11:32 PM, Kyungwoo Lee via llvm-dev <<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a>> wrote:</div><br><div><div dir="ltr">Hello,<br><br>I'd like to upstream our work over the time which the community would benefit from.<br>This is a part of effort toward minimizing code size presented in <a href="https://llvm.org/devmtg/2020-02-23/slides/Kyungwoo-GlobalMachineOutlinerForThinLTO.pdf" target="_blank">here</a>. In particular, this RFC is about optimizing prolog and epilog for size.<br><br><b>Homogeneous Prolog and Epilog for Size Optimization, <a href="https://reviews.llvm.org/D76570" target="_blank">D76570</a>:</b><br><br>Prolog and epilog to handle callee-save registers tend to be irregular with different immediate offsets, which are not often being outlined (by machine outliner) when optimizing for size. From D18619, combining stack operations stretched irregularity further.<br>This patch tries to emit homogeneous stores and loads with the same offset for prolog and epilog respectively.  We have observed that this homogeneous prolog and epilog significantly increased the chance of outlining, resulting in a code size reduction. However, there were still a great deal of outlining opportunities left because the current outliner had to conservatively handle instructions with the return register, x30.<br>Rather, this patch also forms a custom-outlined helper function on demand for prolog and epilog when lowering the frame code.<br><br>- Injects HOM_Prolog and HOM_Epilog pseudo instructions in Prolog and Epilog Injection Pass<br>- Lower and optimize them in AArchLowerHomogneousPrologEpilog Pass<br>- Outlined helpers are created on demand. Identical helpers are merged by the linker.<br>- An opt-in flag is introduced to enable this feature. Another threshold flag is also introduced to control the aggressiveness of outlining for application's need.<br><br>This reduced an average of 4% of code size for LLVM-TestSuite/CTMark targeting arm64/-Oz. In a large mobile application, the size benefit was even larger reducing the page-faults as well.<br> <br><b>Design Alternatives:</b><br><br>1. Expand helpers eagerly by permuting all cases in an earlier module pass. Even though this is rather simple and less invasive, it creates many redundant helpers which need to be elided by the linker.<br>2. Turn Prolog-Epilog-Injection into a module pass. Need to plumb the module through the pass and architecture specific frame-lowering. Not sure about other architecture interaction with this module pass.<br>3. Runtime/compiler-rt for all helpers. The combinations of helpers are a lot and certainly this approach is not flexible.<br><br>Regards,<br>Kyungwoo<br></div>
_______________________________________________<br>LLVM Developers mailing list<br><a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a><br><a href="https://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev" target="_blank">https://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev</a><br></div></blockquote></div><br></div></div></blockquote></div>
</div></blockquote></div><br></div></div></div></blockquote></div>