<div dir="ltr">r296896.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Mar 2, 2017 at 10:42 AM, Matthias Braun via Phabricator <span dir="ltr"><<a href="mailto:reviews@reviews.llvm.org" target="_blank">reviews@reviews.llvm.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">MatzeB added a comment.<br>
<span class=""><br>
In <a href="https://reviews.llvm.org/D30313#690815" rel="noreferrer" target="_blank">https://reviews.llvm.org/<wbr>D30313#690815</a>, @MatzeB wrote:<br>
<br>
> In <a href="https://reviews.llvm.org/D30313#690811" rel="noreferrer" target="_blank">https://reviews.llvm.org/<wbr>D30313#690811</a>, @MatzeB wrote:<br>
><br>
> > Sorry to be this guy: This benchmark is running for too long! We should aim for 0.5-1s runtimes for our benchmarks and the `1000000` looks arbitrary to me. (This takes nearly 3x the time of salsa20, the next slowest benchmark in SingleSource/Benchmarks/Misc for me).<br>
><br>
><br>
> Just lowering is the way to go. Aiming for a specific wall time is contraproductive at least today, as we also have modes where we look at profile data and performance counters and want to compare them between runs.<br>
><br>
> (Long term we should have something like googlebenchmark for our microbenchmarking here which would runt he function just often enough to get stable timing results. Maybe by tweaking it to run a fixed number of times for the cases with an external profiling tool.)<br>
<br>
<br>
</span>For the record: This was in response to Michaels comment on llvm-commits which phabricator ignored...<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
Repository:<br>
  rL LLVM<br>
<br>
<a href="https://reviews.llvm.org/D30313" rel="noreferrer" target="_blank">https://reviews.llvm.org/<wbr>D30313</a><br>
<br>
<br>
<br>
</div></div></blockquote></div><br></div>