Performance i get.  Gdb is almost unusable for large programs because of how long it takes to load debug info.<br><br>Do you have specific numbers on memory usage?  How much memory (absolute and %) is saved by loading debug info lazily on a relatively large project?<br><div class="gmail_quote"><div dir="ltr">On Thu, Jun 21, 2018 at 7:54 AM Greg Clayton <<a href="mailto:clayborg@gmail.com">clayborg@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word;line-break:after-white-space"><br><div><br><blockquote type="cite"><div>On Jun 21, 2018, at 7:47 AM, Zachary Turner <<a href="mailto:zturner@google.com" target="_blank">zturner@google.com</a>> wrote:</div><br class="m_-2093163511928800891Apple-interchange-newline"><div>Related question: Is the laziness done to save memory, startup time, or both?<br></div></blockquote><div><br></div>Both. It allows us to fetch only what we need when we need it. Time to break at main.cpp:123 is much quicker. Using LLDB for symbolication is much quicker as symbolication only needs to know about function definitions and function bounds. Many uses of LLDB are made better by partially parsing.</div></div><div style="word-wrap:break-word;line-break:after-white-space"><div><br><blockquote type="cite"><div><div class="gmail_quote"><div dir="ltr">On Thu, Jun 21, 2018 at 7:36 AM Greg Clayton via Phabricator <<a href="mailto:reviews@reviews.llvm.org" target="_blank">reviews@reviews.llvm.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">clayborg added a comment.<br>
<br>
In <a href="https://reviews.llvm.org/D48393#1138989" rel="noreferrer" target="_blank">https://reviews.llvm.org/D48393#1138989</a>, @labath wrote:<br>
<br>
> I am not sure this will actually solve the problems you are seeing. This may avoid corrupting the internal DenseMap data structures, but it will not make the algorithm using them actually correct.<br>
>  For example the pattern in `ParseTypeFromDWARF` is:<br>
><br>
> 1. check the "already parsed map". If the DIE is already parsed then you're done.<br>
> 2. if the map contains the magic "DIE_IS_BEING_PARSED" key, abort (recursive dwarf references)<br>
> 3. otherwise, insert the  "DIE_IS_BEING_PARSED" key into the map<br>
> 4. do the parsing, which potentially involves recursive `ParseTypeFromDWARF` calls<br>
> 5. insert the parsed type into the map<br>
><br>
>   What you do is make each of the steps (1), (3), (5) atomic individually. However, the whole algorithm is not correct unless the whole sequence is atomic as a whole. Otherwise, if you have two threads trying to parse the same DIE (directly or indirectly), one of them could see the intermediate DIE_IS_BEING_PARSED and incorrectly assume that it encountered recursive types.<br>
<br>
<br>
We need to make #1 atomic.<br>
#2 would need to somehow know if the type is already being parsed recursively by the current thread. If so, then do what we do now. If not, we need a way to wait on the completion of this type so the other parsing thread can complete it and put it into the map, at which time we grab the right value from the map<br>
So #6 step would need to be added so after we do put it into the map, we can notify other threads that might be waiting<br>
<br>
> So, I think that locking at a higher level would be better. Doing that will certainly be tricky though...<br>
<br>
<br>
<br>
<br>
<a href="https://reviews.llvm.org/D48393" rel="noreferrer" target="_blank">https://reviews.llvm.org/D48393</a><br>
<br>
<br>
<br>
</blockquote></div>
</div></blockquote></div><br></div></blockquote></div>