<div dir="ltr"><div dir="ltr">Thank you for sharing your experience. It seems that LICM may also be unsafe.</div><div dir="ltr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"> <span style="color:rgb(80,0,80)">my intuition says that there are far less unsafe optimization than there are safe optimizations.</span></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">...</blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"> <span style="color:rgb(80,0,80)">safe code running at the equivalent of -O0 is fairly useless</span></blockquote><div> </div><div>I believe this is the right viewpoint.There must be a way without sacrificing performance.</div><div dir="ltr"><br clear="all"><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature">Thanks,<br>--Serge<br></div></div><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">ср, 21 авг. 2019 г. в 21:57, Cameron McInally <<a href="mailto:cameron.mcinally@nyu.edu">cameron.mcinally@nyu.edu</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr">On Tue, Aug 20, 2019 at 9:15 PM Serge Pavlov <<a href="mailto:sepavloff@gmail.com" target="_blank">sepavloff@gmail.com</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">Which optimization did you find unsafe?</div><div dir="ltr"><br clear="all"><div><div dir="ltr" class="gmail-m_8926572526896434619gmail-m_5708979993526926218gmail_signature">Thanks,<br>--Serge<br></div></div><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">ср, 21 авг. 2019 г. в 05:12, Cameron McInally <<a href="mailto:cameron.mcinally@nyu.edu" target="_blank">cameron.mcinally@nyu.edu</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr">On Tue, Aug 20, 2019 at 1:02 PM Serge Pavlov via llvm-dev <<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi all,<br><br>During the review of <a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__reviews.llvm.org_D65997&d=DwMFaQ&c=slrrB7dE8n7gBJbeO0g-IQ&r=O_4M49EtSpZ_-BQYeigzGv0P4__noMcSu2RYEjS1vKs&m=fTfAlQ0FHnQez3xiw8VnBL1XaxmBqn_-WD5E0mh4GrY&s=muQ0CzykdJ9Nhg0UshJTnEQXPSKHdFGptZXwFvVD2l0&e=" target="_blank">https://reviews.llvm.org/D65997</a> an issue was revealed, which relates to the decision of how compiler should represents constrained floating point operations.<br><br>If a floating point operation requires rounding mode or exception behavior different from the default, it should be represented by constrained intrinsic (<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__llvm.org_docs_LangRef.html-23constrained-2Dfloating-2Dpoint-2Dintrinsics&d=DwMFaQ&c=slrrB7dE8n7gBJbeO0g-IQ&r=O_4M49EtSpZ_-BQYeigzGv0P4__noMcSu2RYEjS1vKs&m=fTfAlQ0FHnQez3xiw8VnBL1XaxmBqn_-WD5E0mh4GrY&s=5LUnqvzxtBJcUMLBjiVfnEwD53rKH1ZIQmEcvXhbEdo&e=" target="_blank">http://llvm.org/docs/LangRef.html#constrained-floating-point-intrinsics</a>). An important point is that according to the current design decision, if some part of a function contains such intrinsic, all floating point operations in the function must be represented by constrained intrinsics as well. Such decision should prevent from undesired moves of fp operations. The discussion is in the thread <a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__lists.llvm.org_pipermail_cfe-2Ddev_2017-2DAugust_055325.html&d=DwMFaQ&c=slrrB7dE8n7gBJbeO0g-IQ&r=O_4M49EtSpZ_-BQYeigzGv0P4__noMcSu2RYEjS1vKs&m=fTfAlQ0FHnQez3xiw8VnBL1XaxmBqn_-WD5E0mh4GrY&s=l5-qb-0vYUlkEbQT46x1HYz9WtpgOLaojeUkghA_QNg&e=" target="_blank">http://lists.llvm.org/pipermail/cfe-dev/2017-August/055325.html</a>, the relevant example is:<br><br><blockquote style="margin:0px 0px 0px 40px;border:none;padding:0px">double f(double a, double b, double c) {<br>  {<br>#pragma STDC FENV_ACCESS ON<br>    feenableexcept(FE_OVERFLOW);<br>    double d = a * b;<br>    fedisableexcept(FE_OVERFLOW);<br>  }<br>  return c * d;<br>}</blockquote><br>The second fmul must not be hoisted up to before the fedisableexcept. Using constrained intrinsics is expected to help in this case as they are not handled by optimization passes.<br><br>The concern is that using constrained intrinsics in a small region of a function results in using such intrinsics everywhere in the function including functions that inline it. As constrained intrinsics prevent from optimizations, it can result in performance degradation.<br><br>A couple of examples:<br>        1. There is a performance critical function that makes most of calculations in default fp mode, but in some points it enables fp exceptions and makes an action that can trigger such exception. Using constrained intrinsics would result in performance loss, although the code that actually needs them is very compact.<br>   2. Cores that are used for machine learning usually work with short data (half, bfloat16 or even shorter). Rounding control in this case is much more important than for big cores; using proper rounding in different parts of algorithm can gain precision. Constrained intrinsics is the only way to enforce particular rounding mode. However using them results in poor optimization, which is intolerable. In such cores rounding mode may be encoded in instructions, so code movements cannot break semantics.<br><br>Representation of fp operations could be more flexible, so that a user would not pay for rounding/exception control by performance degradation. For that we need to be able to mix constrained intrinsics and regular fp operation in a function.<br><br>The question is: how can we prevent from moving fp operations through boundaries of a region, where specific rounding and/or exception behavior are applied? Any ideas?</div></blockquote><div><br></div><div>Okay, I'll bite...</div><div><br></div><div>Preventing the hoisting of FP arithmetic was one of the driving factors in creating the constrained intrinsics. If we could solve that problem, then the constrained intrinsics would be *less* necessary (I say "less" since there are other problems, but hoisting is one of the significant ones).</div><div><br></div><div>That said, our out-of-tree FPEnv mode attempts to do just that -- selectively throttle unsafe optimizations. Barring any YDKWYDK's, I intend to blow the doors off of the constrained intrinsics, performance-wise. :P</div><div><br></div></div></div></div></blockquote></div></div></blockquote><div><br></div><div>Oh, there are quite a lot. I mentioned Hoisting already. Constant Folding is a big one. InstCombine and DAGCombine have some issues, like preserving masks (op+select masks -- this may be less of a problem with true predication). The LoopVectorizer also needed proper masks (not just masked loads/stores) for targets that support them. APFloat has some issues (I'm intending to upstream fixes for signaling NaNs, if I ever have time). And a host of others.</div><div><br></div><div>Stepping back a little, the goal of FPEnv-safe compilation is just that... to avoid unsafe FP transformations. The constrained intrinsics implementation seeks to prevent almost all FP optimizations at first, safe and unsafe, and then later add safe optimizations back in. My alternative implementation is to find and *very* selectively throttle unsafe optimizations -- my intuition says that there are far less unsafe optimization than there are safe optimizations. I believe this is the much shorter path. So, the two competing implementations are really attacking the problem from two different ends. Who gets to the goal first is TBD...</div><div><br></div><div>To be completely fair, is my alternative solution the best path for upstream LLVM? Maybe, maybe not. The constrained intrinsics will be far less buggy in the early stages, since essentially all optimizations are quashed. But in the same breath, safe code running at the equivalent of -O0 is fairly useless (at least to our customers).   </div></div></div></div>
</blockquote></div></div>