<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Fri, Dec 4, 2015 at 9:11 AM, Tim Northover via llvm-dev <span dir="ltr"><<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 4 December 2015 at 02:38, Christof Douma via llvm-dev<br>
<span class=""><<a href="mailto:llvm-dev@lists.llvm.org">llvm-dev@lists.llvm.org</a>> wrote:<br>
> Would such a feature be accepted upstream?<br></span></blockquote><div><br></div><div>I would strongly support this.</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">> For floating point literals, use movw/movt/vmov instead of a literal pool.<br>
<br>
</span>Another option is moving litpools to one of the data sections (as they<br>
are in AArch64, for example). I'm not sure exactly where the crossover<br>
is, but I'd be a little surprised if movw/movt/vmov was more efficient<br>
for 128-bit constants.<br></blockquote><div><br></div><div>I was wondering the same. For comparison, the Dart VM does something similar but burns a register to point to each function's "data" section. </div></div></div></div>