<div dir="auto"><div>Hi Mikaël!<div dir="auto"><br></div><div dir="auto">16-bit byte was a major pain back in the day, and we never fixed all known failures. In part, it's because C standard really wants 8-bit chars.</div><br><div class="gmail_extra">Btw, why is DCPU16 still a thing? :)</div><div class="gmail_extra" dir="auto"><br><div class="gmail_quote" dir="auto">On Jan 11, 2017 12:06 PM, "Mikaël Fourrier via llvm-dev" <<a href="mailto:llvm-dev@lists.llvm.org">llvm-dev@lists.llvm.org</a>> wrote:<br type="attribution"><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi.<br>
<br>
I'm working on a backend for the [DCPU16](<a href="https://github.com/techcompliant/TC-Specs/blob/master/CPU/DCPU.md" rel="noreferrer" target="_blank">https://github.com/te<wbr>chcompliant/TC-Specs/blob/mast<wbr>er/CPU/DCPU.md</a>), a fictional CPU. The main subtlety is that the bytes are 16 bits instead of 8. There is already a [working backend](<a href="https://github.com/krasin/llvm-dcpu16" rel="noreferrer" target="_blank">https://github.com/kr<wbr>asin/llvm-dcpu16</a>), but it does a lot of source modification to support 16 bit words. I try to update it to latest llvm, but it obviously fails since the new code assumes 1 word == 8 bits. Any idea of a robust way to do such backend?<br>
<br>
Have a good day,<br>
Mikaël<br>
______________________________<wbr>_________________<br>
LLVM Developers mailing list<br>
<a href="mailto:llvm-dev@lists.llvm.org" target="_blank">llvm-dev@lists.llvm.org</a><br>
<a href="http://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-dev" rel="noreferrer" target="_blank">http://lists.llvm.org/cgi-bin/<wbr>mailman/listinfo/llvm-dev</a><br>
</blockquote></div><br></div></div></div>