<div dir="ltr">As to leave an opportunity for the kernel, I think mmap+write would be enough. Because the kernel knows what address is mmap'ed, it can detect that write's source is actually a mmap'ed file and if that's the case it can optimize as it does for sendfile. It seems that Linux doesn't do that now, though.<div><br></div><div>I haven't thought about using non-temporal stores. It may work as we copy very large amount of data, but after copying data, we read it back in order to apply relocations, so I'm not sure if it's going to be overall win.</div><div><br></div><div>Finally, as to asynchronous IO, I'm wondering if it's effective. It seems that not that many people are using asynchronous IO on Linux, and it is often the case that minor paths are not optimized well. I agree that at least in theory it could improve throughput, so it's worth a try.</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jun 6, 2016 at 10:49 AM, Rafael Espíndola <span dir="ltr"><<a href="mailto:rafael.espindola@gmail.com" target="_blank">rafael.espindola@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">Thanks a lot for running the experiment. One thing I want to try one day is relocating one section at a time in anonymous memory and then using async io(io_submit) to write the final bits. That way the kernel can do io while we relocate other sections.</p>
<p dir="ltr">Cheers,<br>
Rafael</p>
<div class="gmail_quote"><div><div class="h5">On Jun 5, 2016 4:19 PM, "Rui Ueyama via llvm-dev" <<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a>> wrote:<br type="attribution"></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5"><div dir="ltr"><div>This is a short summary of an experiment that I did for the linker.</div><div><br></div>One of the major tasks of the linker is to copy file contents from input object files to an output file. I was wondering what's the fastest way to copy data from one file to another, so I conducted an experiment.<div><br></div><div>Currently, LLD copies file contents using memcpy (input files and an output file are mapped to memory.) mmap+memcpy is not known as the fastest way to copy file contents.</div><div><br></div><div>Linux has sendfile system call. The system call takes two file descriptors and copies contents from one to another (it used to take only a socket as a destination, but these days it can take any file.) It is usually much faster than memcpy to copy files. For example, it is about 3x faster than cp command to copy large files on my machine (on SSD/ext4).</div><div><br></div><div>I made a change to LLVM and LLD to use sendfile instead of memcpy to copy section contents. Here's the time to link clang with debug info.</div><div><br></div><div><div>    memcpy: 12.96 seconds<br></div><div>    sendfile: 12.82 seconds</div><div><br></div><div>sendfile(2) was slightly faster but not that much. But if you disable string merging (by passing -O0 parameter to the linker), the difference becomes noticeable.</div><div><br></div><div>    memcpy: 7.85 seconds<br></div><div>    sendfile: 6.94 seconds</div></div><div><br></div><div>I think it is because, with -O0, the linker has to copy more contents than without -O0. It creates 2x larger executable than without -O0. As the amount of data the linker needs to copy gets larger, sendfile gets more effective.</div><div><br></div><div>By the way, gold takes 27.05 seconds to link it.</div><div><br></div><div>With the results, I'm <i>not</i> going to submit that change. There are two reasons. First, the optimization seems too system-specific, and I'm not yet sure if it's always effective even on Linux. Second, the current implementations of MemoryBuffer and FileOutputBuffer are not sendfile(2)-friendly because they close file descriptors immediately after mapping them to memory. My patch is too hacky to submit.</div><div><br></div><div>Being said that, the results clearly show that there's room for future optimization. I think we want to revisit it when we want to do a low-level optimization on link speed.</div><div><br></div><div>Rui</div></div>
<br></div></div>_______________________________________________<br>
LLVM Developers mailing list<br>
<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a><br>
<a href="http://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev" rel="noreferrer" target="_blank">http://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev</a><br>
<br></blockquote></div>
</blockquote></div><br></div>