<div dir="ltr">Does the attached image show the benchmark results? I wonder what are numbers in the other rows than clang and clang-fsds.</div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Dec 1, 2017 at 3:31 PM, Rafael EspĂ­ndola <span dir="ltr"><<a href="mailto:rafael.espindola@gmail.com" target="_blank">rafael.espindola@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">>> OK, that makes it more likely that this is useful, but I still think<br>
>> we should fully benchmark every single optimization.<br>
><br>
><br>
> It depends. Your test cases do not cover all possible use cases, and since<br>
> this is an optimization for that particular code path, it actually makes<br>
> more sense to only measure the speed of that particular path. The benchmark<br>
> numbers would be more noisy if you measure the entire execution time.<br>
<br>
</span>If the results don't show up in a full run then it is probably not<br>
something that is worth optimizing for.<br>
<span class=""><br>
> It still make some sense to run some benchmarks just in case, because some<br>
> seemingly unrelated change could results in a surprising performance<br>
> degradation, but for that purpose, running one or two benchmarks should<br>
> enough.<br>
<br>
</span>I still disagree. We had bad performance regressions from testing just<br>
clang in the part and running all the benchmarks is pretty easy now<br>
that the script is in lld.<br>
<br>
In any case, the results look good, so LGTM.<br>
<br>
<br>
Cheers,<br>
Rafael<br>
</blockquote></div><br></div>