<div dir="auto"><div><div class="gmail_quote"><div dir="ltr">On Fri, 12 Oct 2018, 00:44 Richard Smith via cfe-dev, <<a href="mailto:cfe-dev@lists.llvm.org">cfe-dev@lists.llvm.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div dir="ltr"><br></div><div>On the LLVM IR side, I'm personally unconvinced that we should model matrices in the IR directly as a new first-class type, unless there's some target out there that has matrix operations in hardware / matrix registers, but IR is not really my area of expertise so give that opinion as much or little weight as you see fit. </div></div></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Recent NVIDIA GPUs do support some matrix operations natively in the hardware: <a href="https://devblogs.nvidia.com/programming-tensor-cores-cuda-9/">https://devblogs.nvidia.com/programming-tensor-cores-cuda-9/</a> .</div><div dir="auto"><br></div><div dir="auto">Ciao,</div><div dir="auto">.Andrea</div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
</blockquote></div></div></div>