<div dir="ltr">Sending emails to people who change the results of the static analyzer seems fine. I'm concerned that catching performance regressions in the analyzer might have some false positives, though. The static analyzer is fairly isolated, so maybe there won't be many false positives, but if it becomes a problem, we should probably just disable this part of the reporting and simply track performance over time.</div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Sep 28, 2015 at 4:25 PM, Devin Coughlin via cfe-dev <span dir="ltr"><<a href="mailto:cfe-dev@lists.llvm.org" target="_blank">cfe-dev@lists.llvm.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi all,<br>
<br>
We’re planning to add a public Apple build bot for the static analyzer to Green Dragon (<a href="http://lab.llvm.org:8080/green/" rel="noreferrer" target="_blank">http://lab.llvm.org:8080/green/</a>). I’d like to get your feedback on our proposed approach.<br>
<br>
The goal of this bot is to catch unexpected analyzer regressions, crashes, and coverage loss by periodically running the analyzer on a suite of open-source benchmarks. The bot will compare the produced path diagnostics to reference results. If these do not match, we will e-mail the committers and a small set of interested people. (Let us know if you want to be notified on every failure.) We’d like to make it easy for the community to respond to analyzer regressions and update the reference results.<br>
<br>
We currently have an Apple-internal static analyzer build bot and have found it helpful for catching mistakes that make it past the normal tests. The main downside is that the results need to be updated when new checks are added or the analyzer output changes.<br>
<br>
We propose taking a “curl + cache” approach to benchmarks. That is, we won’t store the benchmarks themselves in a repository. Instead, the bots will download them from the projects' websites and cache locally. If we need to change the benchmarks (to get them to compile with newer versions of clang, for example) we will represent these changes as patch sets which will be applied to the downloaded version. Both these patch sets and the reference results will be checked into the <a href="http://llvm.org/zorg" rel="noreferrer" target="_blank">llvm.org/zorg</a> repository so anyone with commit access will be able to update them. The bot will use the CmpRuns.py script (in clang’s utils/analyzer/) to compare the produced path diagnostic plists to the reference results.<br>
<br>
We’d very much appreciate feedback on this proposed approach. We’d also like to solicit suggestions for benchmarks, which we hope to grow over time. We think sqlite, postgresql, openssl, and Adium (for Objective-C coverage) are good initial benchmarks — but we’d like to add C++ benchmarks as well (perhaps LLVM?).<br>
<br>
Devin Coughlin<br>
Apple Program Analysis Team<br>
_______________________________________________<br>
cfe-dev mailing list<br>
<a href="mailto:cfe-dev@lists.llvm.org">cfe-dev@lists.llvm.org</a><br>
<a href="http://lists.llvm.org/cgi-bin/mailman/listinfo/cfe-dev" rel="noreferrer" target="_blank">http://lists.llvm.org/cgi-bin/mailman/listinfo/cfe-dev</a><br>
</blockquote></div><br></div>