<br><br><div class="gmail_quote">On Fri, Jun 29, 2012 at 2:52 PM, Chandler Carruth <span dir="ltr"><<a href="mailto:chandlerc@google.com" target="_blank">chandlerc@google.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Well, at the most generic level, I'd prefer to have more binaries rather than fewer as we can run them in parallel.</blockquote><div><br></div><div>That's a good point. But my point is that if we run this as one process we are more likely to hit scalability issues. </div>
<div>That might be a bad use of a *unit* test, but that helped me find a scalability bug at least once (one test allocated too much memory; as the result another test became too slow).</div><div><br></div><div>If we want to run a gtest binary in parallel, we can always use shards. </div>
<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><br></div><div>Of course, that's within reason -- when they execute in a few us, that's not useful, but we're not there.</div>

<div><br></div><div>That said, the big difference is that it feels like the link step of the instrumented side of this is a bit higher risk than the other? Maybe I'm just paranoid.</div>
</blockquote></div><br><div>Risk? Hm. Dunno. Hardly so. </div><div><br></div><div>--kcc </div>