<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Mon, May 1, 2017 at 2:42 PM, Pavel Labath <span dir="ltr"><<a href="mailto:labath@google.com" target="_blank">labath@google.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Besides, hardcoding the nesting logic into "add" is kinda wrong.<br>
Adding a task is not the problematic operation, waiting for the result<br>
of one is. Granted, generally these happen on the same thread, but<br>
they don't have to be -- you can write a continuation-style<br>
computation, where you do a bit of work, and then enqueue a task to do<br>
the rest. This would create an infinite pool depth here.<br></blockquote><div><br></div><div>True, but that doesn't seem to be the style of code here.  If it were you wouldn't need multiple pools, since you'd just wait for the callback that your work was done.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Btw, are we sure it's not possible to solve this with just one thread<br>
pool. What would happen if we changed the implementation of "wait" so<br>
that if the target task is not scheduled yet, we just go ahead an<br>
compute it on our thread? I haven't thought through all the details,<br>
but is sounds like this could actually give better performance in some<br>
scenarios...<br>
</blockquote></div><br></div><div class="gmail_extra">My initial reaction was "that wouldn't work, what if you ran another posix dl load?"  But then I suppose *it* would run more work, and eventually you'd run a leaf task and finish something.<br><br></div><div class="gmail_extra">You'd have to make sure your work could be run regardless of what mutexes the caller already had (since you may be running work for another subsystem), but that's probably not too onerous, esp given how many recursive mutexes lldb uses..<br></div></div>