<div dir="ltr">Hi Hal,<br><br>I run on SPEC2000 on cortex-a57(AArch64), and got the following results,<br><br>(It is to measure run-time reduction, and negative is better performance)<br><br>spec.cpu2000.ref.183_equake 33.77%<br>spec.cpu2000.ref.179_art 13.44%<br>spec.cpu2000.ref.256_bzip2 7.80%<br>spec.cpu2000.ref.186_crafty 3.69%<br>spec.cpu2000.ref.175_vpr 2.96%<br>spec.cpu2000.ref.176_gcc 1.77%<br>spec.cpu2000.ref.252_eon 1.77%<br>spec.cpu2000.ref.254_gap 1.19%<br>spec.cpu2000.ref.197_parser 1.15%<br>spec.cpu2000.ref.253_perlbmk 1.11%<br>spec.cpu2000.ref.300_twolf -1.04%<br><br>So we can see almost all got worse performance.<br><br>The command line option I'm using is "-O3 -std=gnu89 -ffast-math -fslp-vectorize -fvectorize -mcpu=cortex-a57 -mllvm -use-cfl-aa -mllvm -use-cfl-aa-in-codegen"<br><br>I didn't try compile-time, and I think your test on POWER7 native build should already meant something for other hosts. Also I don't have a good benchmark suit for compile time testing. My past experiences showed both llvm-test-suite (single/multiple) and spec benchmark are not good benchmarks for compile time testing.<br><br>Thanks,<br>-Jiangning <div class="gmail_extra"><br><div class="gmail_quote">2014-09-04 1:11 GMT+08:00 Hal Finkel <span dir="ltr"><<a href="mailto:hfinkel@anl.gov" target="_blank">hfinkel@anl.gov</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello everyone,<br>
<br>
One of Google's summer interns, George Burgess IV, created an implementation of the CFL pointer-aliasing analysis algorithm, and this has now been added to LLVM trunk. Now we should determine whether it is worthwhile adding this to the default optimization pipeline. For ease of testing, I've added the command line option -use-cfl-aa which will cause the CFL analysis to be added to the optimization pipeline. This can be used with the opt program, and also via Clang by passing: -mllvm -use-cfl-aa.<br>
<br>
For the purpose of testing with those targets that make use of aliasing analysis during code generation, there is also a corresponding -use-cfl-aa-in-codegen option.<br>
<br>
Running the test suite on one of our IBM POWER7 systems (comparing -O3 -mcpu=native to -O3 -mcpu=native -mllvm -use-cfl-aa -mllvm -use-cfl-aa-in-codegen [testing without use in code generation were essentially the same]), I see no significant compile-time changes, and the following performance results:<br>
  speedup:<br>
    MultiSource/Benchmarks/mafft/pairlocalalign: -11.5862% +/- 5.9257%<br>
<br>
  slowdown:<br>
    MultiSource/Benchmarks/FreeBench/neural/neural: 158.679% +/- 22.3212%<br>
    MultiSource/Benchmarks/MiBench/consumer-typeset/consumer-typeset: 0.627176% +/- 0.290698%<br>
    MultiSource/Benchmarks/Ptrdist/ks/ks: 57.5457% +/- 21.8869%<br>
<br>
I ran the test suite 20 times in each configuration, using make -j48 each time, so I'll only pick up large changes. I've not yet investigated the cause of the slowdowns (or the speedup), and I really need people to try this on x86, ARM, etc. I appears, however, the better aliasing analysis results might have some negative unintended consequences, and we'll need to look at those closely.<br>
<br>
Please let me know how this fares on your systems!<br>
<br>
Thanks again,<br>
Hal<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
Hal Finkel<br>
Assistant Computational Scientist<br>
Leadership Computing Facility<br>
Argonne National Laboratory<br>
_______________________________________________<br>
LLVM Developers mailing list<br>
<a href="mailto:LLVMdev@cs.uiuc.edu">LLVMdev@cs.uiuc.edu</a>         <a href="http://llvm.cs.uiuc.edu" target="_blank">http://llvm.cs.uiuc.edu</a><br>
<a href="http://lists.cs.uiuc.edu/mailman/listinfo/llvmdev" target="_blank">http://lists.cs.uiuc.edu/mailman/listinfo/llvmdev</a><br>
</font></span></blockquote></div><br></div></div>