<div dir="ltr">Sorry for the late update. I finally found time to implement a solution (Solution-3) that has the best size savings (for both PGO and coverage testing) with symbolic information available.  Here is a re-cap of what we have discussed so far:<div><br></div><div>Solution-1:</div><div><br></div><div>This is the original solution proposed. In this solution, A function name's MD5 hash is used as the primary key (combined with IR hash) for function lookup. __llvm_prf_names section won't be emitted into the binary nor dumped into the profile data unless -fcoverage-mapping is also specified. </div><div>   </div><div>    Pros: </div><div>        1. maximal reduction of instrumentation binary process image size</div><div>        2. maximal reduction of object and unstripped binary size </div><div>        3. maximal reduction of raw profile data size</div><div>        4. maximal reduction of indexed profile data size</div><div>  </div><div>   Cons:</div><div>        1. -fcoverage-mapping use case is not handled -- the size problem still exist</div><div>        2. profile dump with llvm-profdata no longer have function names associated -- user needs to use postprocessing tool to get the functionality</div><div>        3. function filtering with partial function name is not supported</div><div>        4. Requires incompatible format change</div><div><br></div><div><br></div><div>Solution-2: (<a href="http://reviews.llvm.org/D12715">http://reviews.llvm.org/D12715</a>)</div><div><br></div><div>In this solution, the MD5 hash string is used to replace the raw name string</div><div>      Pros:</div><div>          1. Very simple to implement</div><div>          2. have good reduction of all sizes for typical large C++ applications</div><div>          3. No profile data format change is required.</div><div><br></div><div>      Cons: </div><div>          1. Still requires 16byte overhead per-function -- can actually hurt C programs </div><div>          2. -fcoverage-mapping use case is still not handled</div><div>          3. The problem with llvm-profdata still exists (no symbolic info, partial filtering support)</div><div><br></div><div><br></div><div>Solution-3:</div><div><br></div><div>This is the new solution I am proposing. It is basically an enhancement of Solution-1 with most of the weakness resolved.  The difference with Solution-1 is</div><div>      1. Function name symbols are emitted into the symbol table as weak externs. They don't occupy any space at runtime and can be easily stripped.</div><div>      2. -fcoverage-mapping does not need special handling -- it automatically benefit from the same size saving.</div><div>      3. llvm-cov is changed to read symbol info from the symtab instead of reading them from the name section data</div><div>      4. llvm-profdata is enhanced to take a binary as input and dump profile with names attached. Function filtering is fully supported (option can also be introduced to force dumping names into binary and profile data, so that llvm-profdata use case is not changed at all).</div><div><br></div><div>Pros:</div><div>       1. All the pros from Solution-1</div><div>       2. Size savings for coverage-mapping case</div><div>Cons:</div><div>       Format change is required for profile data and coverage mapping.</div><div><br></div><div>The initial patch is here: <a href="http://reviews.llvm.org/D13251">http://reviews.llvm.org/D13251</a></div><div><br></div><div>With this patch, the size of a release clang binary with coverage mapping is reduced from 986M to 569M. </div><div><br></div><div>If there are no major concerns,  I will carve out the patch into smaller ones for review.</div><div><br></div><div>thanks,</div><div><br></div><div>David</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Sep 8, 2015 at 3:47 PM, Xinliang David Li <span dir="ltr"><<a href="mailto:davidxl@google.com" target="_blank">davidxl@google.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5">>> >><br>
>> >> yes -- it is fixed length (8byte) blob which may include null byte in<br>
>> >> the middle.<br>
>> ><br>
>> ><br>
>> > For reference, MD5 sum is 16 bytes (128-bit):<br>
>> > <a href="https://en.wikipedia.org/wiki/MD5" rel="noreferrer" target="_blank">https://en.wikipedia.org/wiki/MD5</a><br>
>><br>
>> yes, LLVM's MD5 hash only takes the lower 64bit.<br>
>><br>
>><br>
>> ><br>
>> >><br>
>> >><br>
>> >> ><br>
>> >> > Or to say it another way, suppose that Itanium mangling required as a<br>
>> >> > final<br>
>> >> > step to replace the string with its md5 sum in hex. Therefore all<br>
>> >> > symbol<br>
>> >> > names are "small". My understanding is that this is effectively all<br>
>> >> > your<br>
>> >> > patch is doing.<br>
>> >><br>
>> >> The key type before the change is StringRef, while the after the key<br>
>> >> type is uint64_t. Are you suggesting treating uint64_t md5 sum key as<br>
>> >> a string of 8 bytes or storing md5 has in text form which will double<br>
>> >> the size?<br>
>> ><br>
>> ><br>
>> > How much does this change the benefit? If most of the benefit is<br>
>> > avoiding<br>
>> > extraordinarily long mangled names then it may be sufficient.<br>
>> ><br>
>> > With IR-level instrumentation like Rong is pursuing the size may be<br>
>> > reduced<br>
>> > sufficiently that we do not need the optimization proposed in this<br>
>> > thread.<br>
>> > For example, Rong found >2x size reduction on Google's C++ benchmarks,<br>
>> > which<br>
>> > I assume are representative of the extremely large Google binaries that<br>
>> > are<br>
>> > causing the problems addressed by your proposal in this thread. The<br>
>> > measurements you mention for Clang in this thread provide similar size<br>
>> > reductions, so Rong's approach may be sufficient (especially because<br>
>> > functions with extremely large mangled names tend to be small inline<br>
>> > functions in header-only template libraries).<br>
>><br>
>> Late instrumentation helps many cases. In some cases (as shown in<br>
>> SPEC), the reduction in size is not as large. Reducing PGO overhead<br>
>> will lower the bar for its adoption.<br>
>><br>
>> ><br>
>> > Of the points you mention in "Large size of overhead can limit the<br>
>> > usability<br>
>> > of PGO greatly", many of the issues are hard limits that prevent the use<br>
>> > of<br>
>> > PGO. Do you have a lower bound on how much the size of the PGO data must<br>
>> > be<br>
>> > reduced in order to overcome the hard limits?<br>
>><br>
>> This is a static view:  Think about the situation where application<br>
>> size is ever increasing; also think about situation where we want to<br>
>><br>
>> collect more types of profile data. Think about situation where user<br>
>> want to run pgo binaries on small devices with tiny memory/storage ..<br>
><br>
><br>
> If we want to reduce memory overhead at runtime and reduce the size of the<br>
> raw profile data extracted from the target, there are clear solutions.<br>
> Consider that debug info does not need to be loaded into the memory image of<br>
> the target; why should information identifying each counter need to be?<br>
> A file containing raw profile counters is a subset of a core dump; in most<br>
> environments, a core dump does not need to have debug info or symbol names<br>
> in it, but can be still be read in full detail in conjunction with the<br>
> original binary.<br>
<br>
</div></div>Yes -- there are many alternatives:<br>
1) emit the name key mapping as a side data at compile time, or<br>
2) emit them into nonloadable sections of the object file.<br>
<br>
Compared with the above, LLVM's existing design does have its own<br>
advantage -- making it easier for tool to access 'debug' info for<br>
counters.<br>
<br>
LLVM's coverage testing, on the other hand, take a hybrid approach: It<br>
emits the coverage map as rodata, but does not pass it to the profile<br>
dumper. I think it is better to emit covmap as a side data not<br>
attached to target binary.<br>
<span class=""><br>
<br>
><br>
> Thus, as we require that the binary be passed to llvm-profdata, there is no<br>
> fundamental reason that the memory image of the program, or the raw data<br>
> extracted from the program, must have any size overhead besides the raw<br>
> values of the counters themselves and any text size increase for<br>
> incrementing them. If we are willing to impose this requirement on users,<br>
> then as far as reducing memory overhead at runtime and reducing the size of<br>
> the raw profile data extracted from the target, using hashed function names<br>
> is clearly the wrong direction.<br>
><br>
> *Without* imposing the requirement of passing the binary to llvm-profdata, I<br>
> do like the ability to use hashed function names like you are proposing. It<br>
> is a simple solution for reducing size overhead of function name strings<br>
> with little complexity, as it is just swapping one string for another.<br>
<br>
</span>Agree. The good news is that the overhead of hashed function names is<br>
small enough that makes this approach attractive.<br>
<br>
thanks,<br>
<br>
David<br>
<div class="HOEnZb"><div class="h5">><br>
>><br>
>><br>
>> ><br>
>> > Obviously LLVM must be able to support the extremely large binaries in<br>
>> > your<br>
>> > configuration (otherwise what use is LLVM as a compiler ;) My questions<br>
>> > are<br>
>> > primarily aimed at establishing which tradeoffs are acceptable for<br>
>> > supporting this (both for LLVM and for you guys).<br>
>><br>
>> As I said, with the modified proposal (after getting your feedback),<br>
>> no PGO users in LLVM land is going to lose anything/functionality. The<br>
>> end result will be net win for general users of LLVM (even though your<br>
>> customers don't care about it), not just 'us' as you have mentioned<br>
>> many times.<br>
>><br>
>> ><br>
>> > Btw, for us, the issue of PGO data size is not completely immaterial but<br>
>> > is<br>
>> > very different from your use case. For us, the primary issue is the<br>
>> > additional memory use at run time, since PS4 games usually use "all"<br>
>> > available memory. We had a problem with UBSan where the large amount of<br>
>> > memory required for storing the UBSan diagnostic data at runtime<br>
>> > required<br>
>> > the game programmers to manually change their memory map to make room.<br>
>> > +Filipe, do you remember how much memory UBSan was using that caused a<br>
>> > problem?<br>
>> ><br>
>><br>
>> My proposal does help reducing rodata size significantly.<br>
><br>
><br>
> Yes, that is why I think that this is a useful thing to do. I just want to<br>
> be careful about existing use cases and the relevant workflow issues.<br>
><br>
> -- Sean Silva<br>
><br>
>><br>
>><br>
>> David<br>
>><br>
>><br>
>> > -- Sean Silva<br>
>> ><br>
>> >><br>
>> >><br>
>> >> In the raw format, md5 sum key can be an embedded field in the<br>
>> >> prf_data variable instead of as different var referenced by prf_data.<br>
>> >><br>
>> >> ><br>
>> >> > If this is not the case, you should show your current patch so that<br>
>> >> > we<br>
>> >> > can<br>
>> >> > discuss things concretely.<br>
>> >><br>
>> >> It is not. See above about the difference.<br>
>> >><br>
>> >> ><br>
>> >> >><br>
>> >> >> ><br>
>> >> >> ><br>
>> >> >> >><br>
>> >> >> >> It will be<br>
>> >> >> >> very messy to support multiple formats in instr-codegen and<br>
>> >> >> >> instr-runtime.  For compatibility concerns, the reader is taught<br>
>> >> >> >> to<br>
>> >> >> >> support previous format, but the changes there are isolated (also<br>
>> >> >> >> expected to be removed in the future).<br>
>> >> >> >><br>
>> >> >> >> ><br>
>> >> >> >> > My primary concern is that if the function name are not kept at<br>
>> >> >> >> > all<br>
>> >> >> >> > stages,<br>
>> >> >> >> > then it becomes difficult to analyze the profile data in a<br>
>> >> >> >> > standalone<br>
>> >> >> >> > way.<br>
>> >> >> >> > Many times, I have used `llvm-profdata show -all-functions<br>
>> >> >> >> > foo.profdata`<br>
>> >> >> >> > on<br>
>> >> >> >> > the resulting profile data and then imported that data into<br>
>> >> >> >> > Mathematica<br>
>> >> >> >> > for<br>
>> >> >> >> > analysis.<br>
>> >> >> >><br>
>> >> >> >> This is certainly a very valid use case.<br>
>> >> >> >><br>
>> >> >> >> >My understanding of your proposal is that `llvm-profdata show<br>
>> >> >> >> > -all-functions foo.profdata` will not show the actual function<br>
>> >> >> >> > names<br>
>> >> >> >> > but<br>
>> >> >> >> > instead MD5 hashes,<br>
>> >> >> >><br>
>> >> >> >> Yes.<br>
>> >> >> >><br>
>> >> >> >> To support your use case, there are two solutions:<br>
>> >> >> >><br>
>> >> >> >> 1) user can add -fcoverage-mapping option in the build<br>
>> >> >> >> 2) introduce a new option -fprofile-instr-names that force the<br>
>> >> >> >> emission of the name sections in the .o file. This is similar to<br>
>> >> >> >> 1),<br>
>> >> >> >> but no covmap section is needed.<br>
>> >> >> >><br>
>> >> >> >> llvm-profdata tool  will be taught to read the name section and<br>
>> >> >> >> attach<br>
>> >> >> >> function names to the profile records.<br>
>> >> >> ><br>
>> >> >> ><br>
>> >> >> > Needing to pass the executable to llvm-profdata would cause<br>
>> >> >> > deployment<br>
>> >> >> > issues for my customers in practice.<br>
>> >> >><br>
>> >> >> Why? The deployment needs to pass the profile data anyway right?<br>
>> >> ><br>
>> >> ><br>
>> >> > Yes, but not the executable.<br>
>> >> ><br>
>> >> > The PGO training run is likely being run by a gameplay tester<br>
>> >> > (non-programmer). In general the binary will not be lying around as a<br>
>> >> > loose<br>
>> >> > file anywhere, it will be part of a full package of the binary+assets<br>
>> >> > (think<br>
>> >> > like what will end up on a bluray disc). A game's binary *completely<br>
>> >> > useless* without the assets, so except locally on a programmer's<br>
>> >> > machine<br>
>> >> > while they iterate/debug, there is no reason for a binary to ever<br>
>> >> > exist<br>
>> >> > as a<br>
>> >> > standalone file.<br>
>> >> ><br>
>> >> > I'm not saying that needing the binary is insurmountable in any<br>
>> >> > particular<br>
>> >> > scenario. Just that it will cause a strict increase in the number of<br>
>> >> > issues<br>
>> >> > to deploying PGO.<br>
>> >><br>
>> >>  Your concern is acknowledged.<br>
>> >><br>
>> >> ><br>
>> >> > These are much bigger "compatibility concerns" for me than for newer<br>
>> >> > toolchains to accept the old format. For a change in format I can<br>
>> >> > easily<br>
>> >> > tell my users to replace an exe with a newer one and that is all they<br>
>> >> > need<br>
>> >> > to do and it takes 10 seconds, guaranteed. A workflow change is<br>
>> >> > potentially<br>
>> >> > a massive disruption and guaranteed to take more than 10 seconds to<br>
>> >> > fix<br>
>> >> > (perhaps hours or days).<br>
>> >><br>
>> >> ok.<br>
>> >><br>
>> >> ><br>
>> >> ><br>
>> >> >><br>
>> >> >>   This<br>
>> >> >> is no different from llvm-cov usage model.<br>
>> >> ><br>
>> >> ><br>
>> >> > In practice, getting the performance of PGO is a higher priority for<br>
>> >> > my<br>
>> >> > users, so we should not assume that llvm-cov is being used.<br>
>> >><br>
>> >> Glad to hear that :)<br>
>> >><br>
>> >> thanks,<br>
>> >><br>
>> >> David<br>
>> >><br>
>> >> ><br>
>> >> > -- Sean Silva<br>
>> >> ><br>
>> >> >><br>
>> >> >><br>
>> >> >> David<br>
>> >> >><br>
>> >> >><br>
>> >> >><br>
>> >> >> ><br>
>> >> >> >><br>
>> >> >> >><br>
>> >> >> >> Note that with 1) or 2), the user can still benefit from the<br>
>> >> >> >> reduced<br>
>> >> >> >> profile size.<br>
>> >> >> ><br>
>> >> >> ><br>
>> >> >> > Let me reiterate that the size of the profile is not a problem I<br>
>> >> >> > have<br>
>> >> >> > observed in practice (nor have I heard of this being a problem in<br>
>> >> >> > practice<br>
>> >> >> > until this thread). Therefore I'm skeptical of any changes to our<br>
>> >> >> > default<br>
>> >> >> > behavior or any new requirements that are not opt-in.<br>
>> >> >> ><br>
>> >> >> > -- Sean Silva<br>
>> >> >> ><br>
>> >> >> >><br>
>> >> >> >><br>
>> >> >> >> thanks,<br>
>> >> >> >><br>
>> >> >> >> David<br>
>> >> >> >><br>
>> >> >> >><br>
>> >> >> >><br>
>> >> >> >><br>
>> >> >> >> >which will make it more difficult for me to do this kind<br>
>> >> >> >> > of analysis (would require using nm on the original binary,<br>
>> >> >> >> > hashing<br>
>> >> >> >> > everything, etc.).<br>
>> >> >> >> ><br>
>> >> >> >> > btw, feel free to attach the patch even if it in a rough state.<br>
>> >> >> >> > It<br>
>> >> >> >> > can<br>
>> >> >> >> > still<br>
>> >> >> >> > help to clarify the proposal and be a good talking point.<br>
>> >> >> >> > Fine-grained<br>
>> >> >> >> > patch<br>
>> >> >> >> > review for caring about the rough parts will happen on<br>
>> >> >> >> > llvm-commits;<br>
>> >> >> >> > the<br>
>> >> >> >> > rough parts will not distract the discussion here on llvm-dev.<br>
>> >> >> >> ><br>
>> >> >> >> > -- Sean Silva<br>
>> >> >> >> ><br>
>> >> >> >> >><br>
>> >> >> >> >><br>
>> >> >> >> >> thanks,<br>
>> >> >> >> >><br>
>> >> >> >> >> David<br>
>> >> >> >> >> _______________________________________________<br>
>> >> >> >> >> LLVM Developers mailing list<br>
>> >> >> >> >> <a href="mailto:llvm-dev@lists.llvm.org">llvm-dev@lists.llvm.org</a><br>
>> >> >> >> >> <a href="http://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev" rel="noreferrer" target="_blank">http://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev</a><br>
>> >> >> >> ><br>
>> >> >> >> ><br>
>> >> >> ><br>
>> >> >> ><br>
>> >> ><br>
>> >> ><br>
>> ><br>
>> ><br>
><br>
><br>
</div></div></blockquote></div><br></div>