<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Oct 17, 2016 at 5:23 AM, Rafael Espíndola <span dir="ltr"><<a href="mailto:rafael.espindola@gmail.com" target="_blank">rafael.espindola@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 17 October 2016 at 00:20, Daniel Berlin <<a href="mailto:dberlin@dberlin.org">dberlin@dberlin.org</a>> wrote:<br>
><br>
></span><span class=""><br>
</span>Yes, that is my impression. With CachedHash the hash computation cost<br>
is small and there are few collisions. One way to look at it is that<br>
the hash table became almost a counting sort.<br></blockquote><div><br></div><div>Yup.</div><div><br></div><div>The usual faster datastructure are those that don't require the hash computation or hash lookup for misses.</div><div><br></div><div>(IE the infinite variations of ternary search tries, crit-bit trees, etc) </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Cheers,<br>
Rafael<br>
</blockquote></div><br></div></div>