<html><head><meta http-equiv="Content-Type" content="text/html charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class=""><br class=""><div><blockquote type="cite" class=""><div class="">On Feb 24, 2015, at 3:31 PM, Diego Novillo <<a href="mailto:dnovillo@google.com" class="">dnovillo@google.com</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div dir="ltr" class=""><br class=""><div class="">We (Google) have started to look more closely at the profiling infrastructure in LLVM. Internally, we have a large dependency on PGO to get peak performance in generated code.</div><div class=""><br class=""></div><div class="">Some of the dependencies we have on profiling are still not present in LLVM (e.g., the inliner) but we will still need to incorporate changes to support our work on these optimizations. Some of the changes may be addressed as individual bug fixes on the existing profiling infrastructure. Other changes  may be better implemented as either new extensions or as replacements of existing code.</div><div class=""><br class=""></div><div class="">I think we will try to minimize infrastructure replacement at least in the short/medium term. After all, it doesn't make too much sense to replace infrastructure that is broken for code that doesn't exist yet.</div><div class=""><br class=""></div><div class="">David Li and I are preparing a document where we describe the major issues that we'd like to address. The document is a bit on the lengthy side, so it may be easier to start with an email discussion. This is a summary of the main changes we are looking at:</div><div class=""><ol class=""><li class="">Need to faithfully represent the execution count taken from dynamic profiles. Currently, <font face="monospace, monospace" class="">MD_prof</font> does not really represent an execution count. This makes things like comparing hotness across functions hard or impossible. We need a concept of global hotness.</li></ol></div></div></div></blockquote><div><br class=""></div>The plan that we have discussed in the past (I don’t remember when) was to record simple function entry execution counts. Those could be combined with the  BlockFrequencyInfo to compare “hotness” across functions.</div><div><blockquote type="cite" class=""><div class=""><div dir="ltr" class=""><div class=""><ol class="" start="2"><li class="">When the CFG or callgraph change, there need to exist an API for incrementally updating/scaling counts. For instance, when a function is inlined or partially inlined, when the CFG is modified, etc. These counts need to be updated incrementally (or perhaps re-computed as a first step into that direction).</li></ol></div></div></div></blockquote><div>One of the main reasons that we chose to use branch weights to represent profile information within functions is that it makes this problem easier. Of course, we still need to update the branch weights when transforming the CFG, but I believe most of that work has already been done. Are you suggesting that we should work on incremental BlockFrequencyInfo updates? We have discussed that in the past, but so far, it has worked reasonably well to just re-run that analysis. (I wouldn’t be surprised if we’re missing some places where the analysis needs to be invalidated so that it gets re-run.)</div><blockquote type="cite" class=""><div class=""><div dir="ltr" class=""><div class=""><ol class="" start="3"><li class="">The inliner (and other optimizations) needs to use profile information and update it accordingly. This is predicated on Chandler's work on the pass manager, of course.<br class="">Need to represent global profile summary data. For example, for global hotness determination, it is useful to compute additional global summary info, such as a histogram of counts that can be used to determine hotness and working set size estimates for a large percentage of the profiled execution.</li></ol><div class="">There are other changes that we will need to incorporate. David, Teresa, Chandler, please add anything large that I missed.</div><div class=""><br class=""></div><div class="">My main question at the moment is what would be the best way of addressing them. Some seem to require new concepts to be implemented (e.g., execution counts). Others could be addressed as simple bugs to be fixed in the current framework.</div></div><div class=""><br class=""></div><div class="">Would it make sense to present everything in a unified document and discuss that? I've got some reservations about that approach because we will end up discussing everything at once and it may not lead to concrete progress. Another approach would be to present each issue individually either as patches or RFCs or bugs.</div><div class=""><br class=""></div><div class="">I will be taking on the implementation of several of these issues. Some of them involve the SamplePGO harness that I added last year. I would also like to know what other bugs or problems people have in mind that I could also roll into this work.</div><div class=""><br class=""></div><div class=""><br class=""></div><div class="">Thanks. Diego.<br class=""></div></div>
_______________________________________________<br class="">LLVM Developers mailing list<br class=""><a href="mailto:LLVMdev@cs.uiuc.edu" class="">LLVMdev@cs.uiuc.edu</a>         <a href="http://llvm.cs.uiuc.edu" class="">http://llvm.cs.uiuc.edu</a><br class=""><a href="http://lists.cs.uiuc.edu/mailman/listinfo/llvmdev" class="">http://lists.cs.uiuc.edu/mailman/listinfo/llvmdev</a><br class=""></div></blockquote></div><br class=""></body></html>