<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Fri, Oct 21, 2016 at 12:48 PM, Gábor Horváth <span dir="ltr"><<a href="mailto:xazax.hun@gmail.com" target="_blank">xazax.hun@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div><div class="gmail-h5">On 21 October 2016 at 21:26, Richard Smith via cfe-dev <span dir="ltr"><<a href="mailto:cfe-dev@lists.llvm.org" target="_blank">cfe-dev@lists.llvm.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span class="gmail-m_9168304359602079333gmail-">On Thu, Oct 20, 2016 at 2:23 AM, Ilya Palachev via cfe-dev <span dir="ltr"><<a href="mailto:cfe-dev@lists.llvm.org" target="_blank">cfe-dev@lists.llvm.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi,<br>
<br>
It seems that compressing AST files with simple "gzip --fast" makes them 30-40% smaller.<br>
So the questions are:<br>
 1. Is current AST serialization format really non-compressed (only abbreviations in bit stream format)?<br>
 2. Is it worthwhile to compress AST by default (with -emit-ast)?<br>
 3. Will this break things like PCH?<br>
 4. What's the current trade-off between PCH compile time and disk usage? If AST compression makes compilation a bit slower, but reduces the disk usage significantly, will this be appropriate for users or not?<br>
<br>
LLVM already has a support for compression (functions compress/uncompress in include/llvm/Support/Compressi<wbr>on.h).</blockquote><div><br></div></span><div>The current AST format is designed for lazy, partial loading from disk; we make heavy use of file offsets to pull in only the small portions of AST files that are actually used. In a compilation using hundreds or thousands of AST files, it's essential that we don't load any more than we need to (just the file headers) since we should need essentially nothing from almost all loaded files.</div><div><br></div><div>Any approach that requires the entire file to be decompressed seems like a non-starter. I would expect you could get something like the 30-40% improvements you're seeing under gzip by making better use of abbreviations and using smarter representations generally. There is some easy low-hanging fruit here.</div></div></div></div></blockquote><div><br></div></div></div><div>I agree that I did see some low hanging fruits in the serialized AST format. I did one measurement to see which parts of the ASTs are contributing the most to the AST dumps' size. For the details see the json attached to this mail: <a href="http://clang-developers.42468.n3.nabble.com/Two-pass-analysis-framework-AST-merging-approach-tp4051301p4052577.html" target="_blank">http://clang-developers.42468.<wbr>n3.nabble.com/Two-pass-<wbr>analysis-framework-AST-<wbr>merging-approach-<wbr>tp4051301p4052577.html</a></div></div></div></div></blockquote><div><br></div><div>Cool! Is the tool you used to produce this available somewhere? (Are you combining the results of llvm-bcanalyzer or inspecting the bitcode files directly yourself?)</div><div><br></div><div>Some obvious targets for adding abbrevs (>1GB and completely unabbreviated):</div><div><br></div><div><div>                "DECL_CXX_METHOD": {</div><div>                    "count": 54583363,</div><div>                    "bits": "4.49 GB",</div><div>                    "abv": 0.0</div><div>                },</div></div><div><br></div><div><div>                "DECL_CXX_CONSTRUCTOR": {</div><div>                    "count": 17594183,</div><div>                    "bits": "1.47 GB",</div><div>                    "abv": 0.0</div><div>                },</div></div><div><br></div><div><div>                "DECL_CXX_RECORD": {</div><div>                    "count": 24180665,</div><div>                    "bits": "1.1 GB",</div><div>                    "abv": 0.0</div><div>                },</div></div><div><br></div><div><div>                "DECL_CLASS_TEMPLATE_SPECIALIZATION": {</div><div>                    "count": 17971702,</div><div>                    "bits": "1.77 GB",</div><div>                    "abv": 0.0</div><div>                },</div></div><div><br></div><div>A couple of other things I've been planning to improve AST file size (but not got around to yet):</div><div><br></div><div>* We should allow each Decl kind to specify a list of abbreviations (from most specific to most general) and use the first one that fits the data. We should always use *some* abbreviation for every Decl, even if we only get to abbreviate the base Decl fields and use an array of VBR6 for the rest.</div><div><br></div><div>* We store SourceLocations as absolute offsets right now, wasting a lot of bits on redundant information. Instead, we should store SourceLocations as a delta from the root location of the record we're reading (the location of the Decl or the start of the Stmt tree).</div></div></div></div>