<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Feb 17, 2014 at 10:34 AM, Eric Christopher <span dir="ltr"><<a href="mailto:echristo@gmail.com" target="_blank">echristo@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="">> Is it just that it's a performance optimization compared to having to walk<br>
> the DIE parent chain to build a fully qualified name? If that's the case,<br>
> can we quantify that perf/size tradeoff? (though at that point it's a fair<br>
> question about why have the mangled name at all - I'm not really sure what<br>
> GDB uses it for when it is present (on externally visible functions))<br>
><br>
<br>
</div>As a side note here it's pretty hard to do this. At least, afaik, no<br>
debugger actually has a performance suite and few people seem<br>
interested in writing one sadly.</blockquote><div><br>Yeah, I realize that's a bit presumptuous/idealistic on my part. Seems hard to reason about/justify tradeoffs like this without some kind of analysis.<br><br>I guess accelerator tables (just the biggest/most obvious debug info size/debugger speed tradeoff that springs to mind) were just such such a substantial win to speed and sufficiently small size that they were 'obvious' without very fine-grained experimentation?<br>
<br>- David<br><br><br></div></div></div></div>