[llvm] [ValueTypes][RISCV] Add v1bf16 type (PR #111112)

via llvm-commits llvm-commits at lists.llvm.org
Fri Oct 4 01:01:17 PDT 2024


llvmbot wrote:


<!--LLVM PR SUMMARY COMMENT-->

@llvm/pr-subscribers-llvm-transforms

Author: Luke Lau (lukel97)

<details>
<summary>Changes</summary>

When trying to add RISC-V fadd reduction cost model tests for bf16, I noticed a crash when the vector was of <1 x bfloat>.

It turns out that this was being scalarized because unlike f16/f32/f64, there's no v1bf16 value type, and the existing cost model code assumed that the legalized type would always be a vector.

This adds v1bf16 to bring bf16 in line with the other fp types.

It also adds some more RISC-V bf16 reduction tests which previously crashed, including tests to ensure that SLP won't emit fadd/fmul reductions for bf16 or f16 w/ zvfhmin after #<!-- -->111000.


---

Patch is 61.71 KiB, truncated to 20.00 KiB below, full version: https://github.com/llvm/llvm-project/pull/111112.diff


6 Files Affected:

- (modified) llvm/include/llvm/CodeGen/ValueTypes.td (+147-146) 
- (modified) llvm/test/Analysis/CostModel/RISCV/arith-fp.ll (+3-3) 
- (modified) llvm/test/Analysis/CostModel/RISCV/reduce-fadd.ll (+71-3) 
- (modified) llvm/test/Analysis/CostModel/RISCV/reduce-fmul.ll (+71-3) 
- (modified) llvm/test/CodeGen/RISCV/rvv/fixed-vectors-vfwmaccbf16.ll (+26-188) 
- (modified) llvm/test/Transforms/SLPVectorizer/RISCV/reductions.ll (+152-9) 


``````````diff
diff --git a/llvm/include/llvm/CodeGen/ValueTypes.td b/llvm/include/llvm/CodeGen/ValueTypes.td
index ea2c80eaf95836..493c0cfcab60ce 100644
--- a/llvm/include/llvm/CodeGen/ValueTypes.td
+++ b/llvm/include/llvm/CodeGen/ValueTypes.td
@@ -179,157 +179,158 @@ def v128f16  : VTVec<128,  f16,  96>;  //  128 x f16 vector value
 def v256f16  : VTVec<256,  f16,  97>;  //  256 x f16 vector value
 def v512f16  : VTVec<512,  f16,  98>;  //  512 x f16 vector value
 
-def v2bf16   : VTVec<2,   bf16,  99>;  //    2 x bf16 vector value
-def v3bf16   : VTVec<3,   bf16, 100>;  //    3 x bf16 vector value
-def v4bf16   : VTVec<4,   bf16, 101>;  //    4 x bf16 vector value
-def v8bf16   : VTVec<8,   bf16, 102>;  //    8 x bf16 vector value
-def v16bf16  : VTVec<16,  bf16, 103>;  //   16 x bf16 vector value
-def v32bf16  : VTVec<32,  bf16, 104>;  //   32 x bf16 vector value
-def v64bf16  : VTVec<64,  bf16, 105>;  //   64 x bf16 vector value
-def v128bf16 : VTVec<128, bf16, 106>;  //  128 x bf16 vector value
-
-def v1f32    : VTVec<1,    f32, 107>;  //    1 x f32 vector value
-def v2f32    : VTVec<2,    f32, 108>;  //    2 x f32 vector value
-def v3f32    : VTVec<3,    f32, 109>;  //    3 x f32 vector value
-def v4f32    : VTVec<4,    f32, 110>;  //    4 x f32 vector value
-def v5f32    : VTVec<5,    f32, 111>;  //    5 x f32 vector value
-def v6f32    : VTVec<6,    f32, 112>;  //    6 x f32 vector value
-def v7f32    : VTVec<7,    f32, 113>;  //    7 x f32 vector value
-def v8f32    : VTVec<8,    f32, 114>;  //    8 x f32 vector value
-def v9f32    : VTVec<9,    f32, 115>;  //    9 x f32 vector value
-def v10f32   : VTVec<10,   f32, 116>;  //   10 x f32 vector value
-def v11f32   : VTVec<11,   f32, 117>;  //   11 x f32 vector value
-def v12f32   : VTVec<12,   f32, 118>;  //   12 x f32 vector value
-def v16f32   : VTVec<16,   f32, 119>;  //   16 x f32 vector value
-def v32f32   : VTVec<32,   f32, 120>;  //   32 x f32 vector value
-def v64f32   : VTVec<64,   f32, 121>;  //   64 x f32 vector value
-def v128f32  : VTVec<128,  f32, 122>;  //  128 x f32 vector value
-def v256f32  : VTVec<256,  f32, 123>;  //  256 x f32 vector value
-def v512f32  : VTVec<512,  f32, 124>;  //  512 x f32 vector value
-def v1024f32 : VTVec<1024, f32, 125>;  // 1024 x f32 vector value
-def v2048f32 : VTVec<2048, f32, 126>;  // 2048 x f32 vector value
-
-def v1f64    : VTVec<1,    f64, 127>;  //    1 x f64 vector value
-def v2f64    : VTVec<2,    f64, 128>;  //    2 x f64 vector value
-def v3f64    : VTVec<3,    f64, 129>;  //    3 x f64 vector value
-def v4f64    : VTVec<4,    f64, 130>;  //    4 x f64 vector value
-def v8f64    : VTVec<8,    f64, 131>;  //    8 x f64 vector value
-def v16f64   : VTVec<16,   f64, 132>;  //   16 x f64 vector value
-def v32f64   : VTVec<32,   f64, 133>;  //   32 x f64 vector value
-def v64f64   : VTVec<64,   f64, 134>;  //   64 x f64 vector value
-def v128f64  : VTVec<128,  f64, 135>;  //  128 x f64 vector value
-def v256f64  : VTVec<256,  f64, 136>;  //  256 x f64 vector value
-
-def nxv1i1  : VTScalableVec<1,  i1, 137>;  // n x  1 x i1  vector value
-def nxv2i1  : VTScalableVec<2,  i1, 138>;  // n x  2 x i1  vector value
-def nxv4i1  : VTScalableVec<4,  i1, 139>;  // n x  4 x i1  vector value
-def nxv8i1  : VTScalableVec<8,  i1, 140>;  // n x  8 x i1  vector value
-def nxv16i1 : VTScalableVec<16, i1, 141>;  // n x 16 x i1  vector value
-def nxv32i1 : VTScalableVec<32, i1, 142>;  // n x 32 x i1  vector value
-def nxv64i1 : VTScalableVec<64, i1, 143>;  // n x 64 x i1  vector value
-
-def nxv1i8  : VTScalableVec<1,  i8, 144>;  // n x  1 x i8  vector value
-def nxv2i8  : VTScalableVec<2,  i8, 145>;  // n x  2 x i8  vector value
-def nxv4i8  : VTScalableVec<4,  i8, 146>;  // n x  4 x i8  vector value
-def nxv8i8  : VTScalableVec<8,  i8, 147>;  // n x  8 x i8  vector value
-def nxv16i8 : VTScalableVec<16, i8, 148>;  // n x 16 x i8  vector value
-def nxv32i8 : VTScalableVec<32, i8, 149>;  // n x 32 x i8  vector value
-def nxv64i8 : VTScalableVec<64, i8, 150>;  // n x 64 x i8  vector value
-
-def nxv1i16  : VTScalableVec<1,  i16, 151>;  // n x  1 x i16 vector value
-def nxv2i16  : VTScalableVec<2,  i16, 152>;  // n x  2 x i16 vector value
-def nxv4i16  : VTScalableVec<4,  i16, 153>;  // n x  4 x i16 vector value
-def nxv8i16  : VTScalableVec<8,  i16, 154>;  // n x  8 x i16 vector value
-def nxv16i16 : VTScalableVec<16, i16, 155>;  // n x 16 x i16 vector value
-def nxv32i16 : VTScalableVec<32, i16, 156>;  // n x 32 x i16 vector value
-
-def nxv1i32  : VTScalableVec<1,  i32, 157>;  // n x  1 x i32 vector value
-def nxv2i32  : VTScalableVec<2,  i32, 158>;  // n x  2 x i32 vector value
-def nxv4i32  : VTScalableVec<4,  i32, 159>;  // n x  4 x i32 vector value
-def nxv8i32  : VTScalableVec<8,  i32, 160>;  // n x  8 x i32 vector value
-def nxv16i32 : VTScalableVec<16, i32, 161>;  // n x 16 x i32 vector value
-def nxv32i32 : VTScalableVec<32, i32, 162>;  // n x 32 x i32 vector value
-
-def nxv1i64  : VTScalableVec<1,  i64, 163>;  // n x  1 x i64 vector value
-def nxv2i64  : VTScalableVec<2,  i64, 164>;  // n x  2 x i64 vector value
-def nxv4i64  : VTScalableVec<4,  i64, 165>;  // n x  4 x i64 vector value
-def nxv8i64  : VTScalableVec<8,  i64, 166>;  // n x  8 x i64 vector value
-def nxv16i64 : VTScalableVec<16, i64, 167>;  // n x 16 x i64 vector value
-def nxv32i64 : VTScalableVec<32, i64, 168>;  // n x 32 x i64 vector value
-
-def nxv1f16  : VTScalableVec<1,  f16, 169>;  // n x  1 x  f16 vector value
-def nxv2f16  : VTScalableVec<2,  f16, 170>;  // n x  2 x  f16 vector value
-def nxv4f16  : VTScalableVec<4,  f16, 171>;  // n x  4 x  f16 vector value
-def nxv8f16  : VTScalableVec<8,  f16, 172>;  // n x  8 x  f16 vector value
-def nxv16f16 : VTScalableVec<16, f16, 173>;  // n x 16 x  f16 vector value
-def nxv32f16 : VTScalableVec<32, f16, 174>;  // n x 32 x  f16 vector value
-
-def nxv1bf16  : VTScalableVec<1,  bf16, 175>;  // n x  1 x bf16 vector value
-def nxv2bf16  : VTScalableVec<2,  bf16, 176>;  // n x  2 x bf16 vector value
-def nxv4bf16  : VTScalableVec<4,  bf16, 177>;  // n x  4 x bf16 vector value
-def nxv8bf16  : VTScalableVec<8,  bf16, 178>;  // n x  8 x bf16 vector value
-def nxv16bf16 : VTScalableVec<16, bf16, 179>;  // n x 16 x bf16 vector value
-def nxv32bf16 : VTScalableVec<32, bf16, 180>;  // n x 32 x bf16 vector value
-
-def nxv1f32  : VTScalableVec<1,  f32, 181>;  // n x  1 x  f32 vector value
-def nxv2f32  : VTScalableVec<2,  f32, 182>;  // n x  2 x  f32 vector value
-def nxv4f32  : VTScalableVec<4,  f32, 183>;  // n x  4 x  f32 vector value
-def nxv8f32  : VTScalableVec<8,  f32, 184>;  // n x  8 x  f32 vector value
-def nxv16f32 : VTScalableVec<16, f32, 185>;  // n x 16 x  f32 vector value
-
-def nxv1f64  : VTScalableVec<1,  f64, 186>;  // n x  1 x  f64 vector value
-def nxv2f64  : VTScalableVec<2,  f64, 187>;  // n x  2 x  f64 vector value
-def nxv4f64  : VTScalableVec<4,  f64, 188>;  // n x  4 x  f64 vector value
-def nxv8f64  : VTScalableVec<8,  f64, 189>;  // n x  8 x  f64 vector value
+def v1bf16   : VTVec<1,   bf16,  99>;  //    1 x bf16 vector value
+def v2bf16   : VTVec<2,   bf16, 100>;  //    2 x bf16 vector value
+def v3bf16   : VTVec<3,   bf16, 101>;  //    3 x bf16 vector value
+def v4bf16   : VTVec<4,   bf16, 102>;  //    4 x bf16 vector value
+def v8bf16   : VTVec<8,   bf16, 103>;  //    8 x bf16 vector value
+def v16bf16  : VTVec<16,  bf16, 104>;  //   16 x bf16 vector value
+def v32bf16  : VTVec<32,  bf16, 105>;  //   32 x bf16 vector value
+def v64bf16  : VTVec<64,  bf16, 106>;  //   64 x bf16 vector value
+def v128bf16 : VTVec<128, bf16, 107>;  //  128 x bf16 vector value
+
+def v1f32    : VTVec<1,    f32, 108>;  //    1 x f32 vector value
+def v2f32    : VTVec<2,    f32, 109>;  //    2 x f32 vector value
+def v3f32    : VTVec<3,    f32, 110>;  //    3 x f32 vector value
+def v4f32    : VTVec<4,    f32, 111>;  //    4 x f32 vector value
+def v5f32    : VTVec<5,    f32, 112>;  //    5 x f32 vector value
+def v6f32    : VTVec<6,    f32, 113>;  //    6 x f32 vector value
+def v7f32    : VTVec<7,    f32, 114>;  //    7 x f32 vector value
+def v8f32    : VTVec<8,    f32, 115>;  //    8 x f32 vector value
+def v9f32    : VTVec<9,    f32, 116>;  //    9 x f32 vector value
+def v10f32   : VTVec<10,   f32, 117>;  //   10 x f32 vector value
+def v11f32   : VTVec<11,   f32, 118>;  //   11 x f32 vector value
+def v12f32   : VTVec<12,   f32, 119>;  //   12 x f32 vector value
+def v16f32   : VTVec<16,   f32, 120>;  //   16 x f32 vector value
+def v32f32   : VTVec<32,   f32, 121>;  //   32 x f32 vector value
+def v64f32   : VTVec<64,   f32, 122>;  //   64 x f32 vector value
+def v128f32  : VTVec<128,  f32, 123>;  //  128 x f32 vector value
+def v256f32  : VTVec<256,  f32, 124>;  //  256 x f32 vector value
+def v512f32  : VTVec<512,  f32, 125>;  //  512 x f32 vector value
+def v1024f32 : VTVec<1024, f32, 126>;  // 1024 x f32 vector value
+def v2048f32 : VTVec<2048, f32, 127>;  // 2048 x f32 vector value
+
+def v1f64    : VTVec<1,    f64, 128>;  //    1 x f64 vector value
+def v2f64    : VTVec<2,    f64, 129>;  //    2 x f64 vector value
+def v3f64    : VTVec<3,    f64, 130>;  //    3 x f64 vector value
+def v4f64    : VTVec<4,    f64, 131>;  //    4 x f64 vector value
+def v8f64    : VTVec<8,    f64, 132>;  //    8 x f64 vector value
+def v16f64   : VTVec<16,   f64, 133>;  //   16 x f64 vector value
+def v32f64   : VTVec<32,   f64, 134>;  //   32 x f64 vector value
+def v64f64   : VTVec<64,   f64, 135>;  //   64 x f64 vector value
+def v128f64  : VTVec<128,  f64, 136>;  //  128 x f64 vector value
+def v256f64  : VTVec<256,  f64, 137>;  //  256 x f64 vector value
+
+def nxv1i1  : VTScalableVec<1,  i1, 138>;  // n x  1 x i1  vector value
+def nxv2i1  : VTScalableVec<2,  i1, 139>;  // n x  2 x i1  vector value
+def nxv4i1  : VTScalableVec<4,  i1, 140>;  // n x  4 x i1  vector value
+def nxv8i1  : VTScalableVec<8,  i1, 141>;  // n x  8 x i1  vector value
+def nxv16i1 : VTScalableVec<16, i1, 142>;  // n x 16 x i1  vector value
+def nxv32i1 : VTScalableVec<32, i1, 143>;  // n x 32 x i1  vector value
+def nxv64i1 : VTScalableVec<64, i1, 144>;  // n x 64 x i1  vector value
+
+def nxv1i8  : VTScalableVec<1,  i8, 145>;  // n x  1 x i8  vector value
+def nxv2i8  : VTScalableVec<2,  i8, 146>;  // n x  2 x i8  vector value
+def nxv4i8  : VTScalableVec<4,  i8, 147>;  // n x  4 x i8  vector value
+def nxv8i8  : VTScalableVec<8,  i8, 148>;  // n x  8 x i8  vector value
+def nxv16i8 : VTScalableVec<16, i8, 149>;  // n x 16 x i8  vector value
+def nxv32i8 : VTScalableVec<32, i8, 150>;  // n x 32 x i8  vector value
+def nxv64i8 : VTScalableVec<64, i8, 151>;  // n x 64 x i8  vector value
+
+def nxv1i16  : VTScalableVec<1,  i16, 152>;  // n x  1 x i16 vector value
+def nxv2i16  : VTScalableVec<2,  i16, 153>;  // n x  2 x i16 vector value
+def nxv4i16  : VTScalableVec<4,  i16, 154>;  // n x  4 x i16 vector value
+def nxv8i16  : VTScalableVec<8,  i16, 155>;  // n x  8 x i16 vector value
+def nxv16i16 : VTScalableVec<16, i16, 156>;  // n x 16 x i16 vector value
+def nxv32i16 : VTScalableVec<32, i16, 157>;  // n x 32 x i16 vector value
+
+def nxv1i32  : VTScalableVec<1,  i32, 158>;  // n x  1 x i32 vector value
+def nxv2i32  : VTScalableVec<2,  i32, 159>;  // n x  2 x i32 vector value
+def nxv4i32  : VTScalableVec<4,  i32, 160>;  // n x  4 x i32 vector value
+def nxv8i32  : VTScalableVec<8,  i32, 161>;  // n x  8 x i32 vector value
+def nxv16i32 : VTScalableVec<16, i32, 162>;  // n x 16 x i32 vector value
+def nxv32i32 : VTScalableVec<32, i32, 163>;  // n x 32 x i32 vector value
+
+def nxv1i64  : VTScalableVec<1,  i64, 164>;  // n x  1 x i64 vector value
+def nxv2i64  : VTScalableVec<2,  i64, 165>;  // n x  2 x i64 vector value
+def nxv4i64  : VTScalableVec<4,  i64, 166>;  // n x  4 x i64 vector value
+def nxv8i64  : VTScalableVec<8,  i64, 167>;  // n x  8 x i64 vector value
+def nxv16i64 : VTScalableVec<16, i64, 168>;  // n x 16 x i64 vector value
+def nxv32i64 : VTScalableVec<32, i64, 169>;  // n x 32 x i64 vector value
+
+def nxv1f16  : VTScalableVec<1,  f16, 170>;  // n x  1 x  f16 vector value
+def nxv2f16  : VTScalableVec<2,  f16, 171>;  // n x  2 x  f16 vector value
+def nxv4f16  : VTScalableVec<4,  f16, 172>;  // n x  4 x  f16 vector value
+def nxv8f16  : VTScalableVec<8,  f16, 173>;  // n x  8 x  f16 vector value
+def nxv16f16 : VTScalableVec<16, f16, 174>;  // n x 16 x  f16 vector value
+def nxv32f16 : VTScalableVec<32, f16, 175>;  // n x 32 x  f16 vector value
+
+def nxv1bf16  : VTScalableVec<1,  bf16, 176>;  // n x  1 x bf16 vector value
+def nxv2bf16  : VTScalableVec<2,  bf16, 177>;  // n x  2 x bf16 vector value
+def nxv4bf16  : VTScalableVec<4,  bf16, 178>;  // n x  4 x bf16 vector value
+def nxv8bf16  : VTScalableVec<8,  bf16, 179>;  // n x  8 x bf16 vector value
+def nxv16bf16 : VTScalableVec<16, bf16, 180>;  // n x 16 x bf16 vector value
+def nxv32bf16 : VTScalableVec<32, bf16, 181>;  // n x 32 x bf16 vector value
+
+def nxv1f32  : VTScalableVec<1,  f32, 182>;  // n x  1 x  f32 vector value
+def nxv2f32  : VTScalableVec<2,  f32, 183>;  // n x  2 x  f32 vector value
+def nxv4f32  : VTScalableVec<4,  f32, 184>;  // n x  4 x  f32 vector value
+def nxv8f32  : VTScalableVec<8,  f32, 185>;  // n x  8 x  f32 vector value
+def nxv16f32 : VTScalableVec<16, f32, 186>;  // n x 16 x  f32 vector value
+
+def nxv1f64  : VTScalableVec<1,  f64, 187>;  // n x  1 x  f64 vector value
+def nxv2f64  : VTScalableVec<2,  f64, 188>;  // n x  2 x  f64 vector value
+def nxv4f64  : VTScalableVec<4,  f64, 189>;  // n x  4 x  f64 vector value
+def nxv8f64  : VTScalableVec<8,  f64, 190>;  // n x  8 x  f64 vector value
 
 // Sz = NF * MinNumElts * 8(bits)
-def riscv_nxv1i8x2   : VTVecTup<16, 2, i8, 190>;  // RISCV vector tuple(min_num_elts=1, nf=2)
-def riscv_nxv1i8x3   : VTVecTup<24, 3, i8, 191>;  // RISCV vector tuple(min_num_elts=1, nf=3)
-def riscv_nxv1i8x4   : VTVecTup<32, 4, i8, 192>;  // RISCV vector tuple(min_num_elts=1, nf=4)
-def riscv_nxv1i8x5   : VTVecTup<40, 5, i8, 193>;  // RISCV vector tuple(min_num_elts=1, nf=5)
-def riscv_nxv1i8x6   : VTVecTup<48, 6, i8, 194>;  // RISCV vector tuple(min_num_elts=1, nf=6)
-def riscv_nxv1i8x7   : VTVecTup<56, 7, i8, 195>;  // RISCV vector tuple(min_num_elts=1, nf=7)
-def riscv_nxv1i8x8   : VTVecTup<64, 8, i8, 196>;  // RISCV vector tuple(min_num_elts=1, nf=8)
-def riscv_nxv2i8x2   : VTVecTup<32, 2, i8, 197>;  // RISCV vector tuple(min_num_elts=2, nf=2)
-def riscv_nxv2i8x3   : VTVecTup<48, 3, i8, 198>;  // RISCV vector tuple(min_num_elts=2, nf=3)
-def riscv_nxv2i8x4   : VTVecTup<64, 4, i8, 199>;  // RISCV vector tuple(min_num_elts=2, nf=4)
-def riscv_nxv2i8x5   : VTVecTup<80, 5, i8, 200>;  // RISCV vector tuple(min_num_elts=2, nf=5)
-def riscv_nxv2i8x6   : VTVecTup<96, 6, i8, 201>;  // RISCV vector tuple(min_num_elts=2, nf=6)
-def riscv_nxv2i8x7   : VTVecTup<112, 7, i8, 202>; // RISCV vector tuple(min_num_elts=2, nf=7)
-def riscv_nxv2i8x8   : VTVecTup<128, 8, i8, 203>; // RISCV vector tuple(min_num_elts=2, nf=8)
-def riscv_nxv4i8x2   : VTVecTup<64, 2, i8, 204>;  // RISCV vector tuple(min_num_elts=4, nf=2)
-def riscv_nxv4i8x3   : VTVecTup<96, 3, i8, 205>;  // RISCV vector tuple(min_num_elts=4, nf=3)
-def riscv_nxv4i8x4   : VTVecTup<128, 4, i8, 206>; // RISCV vector tuple(min_num_elts=4, nf=4)
-def riscv_nxv4i8x5   : VTVecTup<160, 5, i8, 207>; // RISCV vector tuple(min_num_elts=4, nf=5)
-def riscv_nxv4i8x6   : VTVecTup<192, 6, i8, 208>; // RISCV vector tuple(min_num_elts=4, nf=6)
-def riscv_nxv4i8x7   : VTVecTup<224, 7, i8, 209>; // RISCV vector tuple(min_num_elts=4, nf=7)
-def riscv_nxv4i8x8   : VTVecTup<256, 8, i8, 210>; // RISCV vector tuple(min_num_elts=4, nf=8)
-def riscv_nxv8i8x2   : VTVecTup<128, 2, i8, 211>; // RISCV vector tuple(min_num_elts=8, nf=2)
-def riscv_nxv8i8x3   : VTVecTup<192, 3, i8, 212>; // RISCV vector tuple(min_num_elts=8, nf=3)
-def riscv_nxv8i8x4   : VTVecTup<256, 4, i8, 213>; // RISCV vector tuple(min_num_elts=8, nf=4)
-def riscv_nxv8i8x5   : VTVecTup<320, 5, i8, 214>; // RISCV vector tuple(min_num_elts=8, nf=5)
-def riscv_nxv8i8x6   : VTVecTup<384, 6, i8, 215>; // RISCV vector tuple(min_num_elts=8, nf=6)
-def riscv_nxv8i8x7   : VTVecTup<448, 7, i8, 216>; // RISCV vector tuple(min_num_elts=8, nf=7)
-def riscv_nxv8i8x8   : VTVecTup<512, 8, i8, 217>; // RISCV vector tuple(min_num_elts=8, nf=8)
-def riscv_nxv16i8x2  : VTVecTup<256, 2, i8, 218>; // RISCV vector tuple(min_num_elts=16, nf=2)
-def riscv_nxv16i8x3  : VTVecTup<384, 3, i8, 219>; // RISCV vector tuple(min_num_elts=16, nf=3)
-def riscv_nxv16i8x4  : VTVecTup<512, 4, i8, 220>; // RISCV vector tuple(min_num_elts=16, nf=4)
-def riscv_nxv32i8x2  : VTVecTup<512, 2, i8, 221>; // RISCV vector tuple(min_num_elts=32, nf=2)
-
-def x86mmx    : ValueType<64,   222>;  // X86 MMX value
-def Glue      : ValueType<0,    223>;  // Pre-RA sched glue
-def isVoid    : ValueType<0,    224>;  // Produces no value
-def untyped   : ValueType<8,    225> { // Produces an untyped value
+def riscv_nxv1i8x2   : VTVecTup<16, 2, i8, 191>;  // RISCV vector tuple(min_num_elts=1, nf=2)
+def riscv_nxv1i8x3   : VTVecTup<24, 3, i8, 192>;  // RISCV vector tuple(min_num_elts=1, nf=3)
+def riscv_nxv1i8x4   : VTVecTup<32, 4, i8, 193>;  // RISCV vector tuple(min_num_elts=1, nf=4)
+def riscv_nxv1i8x5   : VTVecTup<40, 5, i8, 194>;  // RISCV vector tuple(min_num_elts=1, nf=5)
+def riscv_nxv1i8x6   : VTVecTup<48, 6, i8, 195>;  // RISCV vector tuple(min_num_elts=1, nf=6)
+def riscv_nxv1i8x7   : VTVecTup<56, 7, i8, 196>;  // RISCV vector tuple(min_num_elts=1, nf=7)
+def riscv_nxv1i8x8   : VTVecTup<64, 8, i8, 197>;  // RISCV vector tuple(min_num_elts=1, nf=8)
+def riscv_nxv2i8x2   : VTVecTup<32, 2, i8, 198>;  // RISCV vector tuple(min_num_elts=2, nf=2)
+def riscv_nxv2i8x3   : VTVecTup<48, 3, i8, 199>;  // RISCV vector tuple(min_num_elts=2, nf=3)
+def riscv_nxv2i8x4   : VTVecTup<64, 4, i8, 200>;  // RISCV vector tuple(min_num_elts=2, nf=4)
+def riscv_nxv2i8x5   : VTVecTup<80, 5, i8, 201>;  // RISCV vector tuple(min_num_elts=2, nf=5)
+def riscv_nxv2i8x6   : VTVecTup<96, 6, i8, 202>;  // RISCV vector tuple(min_num_elts=2, nf=6)
+def riscv_nxv2i8x7   : VTVecTup<112, 7, i8, 203>; // RISCV vector tuple(min_num_elts=2, nf=7)
+def riscv_nxv2i8x8   : VTVecTup<128, 8, i8, 204>; // RISCV vector tuple(min_num_elts=2, nf=8)
+def riscv_nxv4i8x2   : VTVecTup<64, 2, i8, 205>;  // RISCV vector tuple(min_num_elts=4, nf=2)
+def riscv_nxv4i8x3   : VTVecTup<96, 3, i8, 206>;  // RISCV vector tuple(min_num_elts=4, nf=3)
+def riscv_nxv4i8x4   : VTVecTup<128, 4, i8, 207>; // RISCV vector tuple(min_num_elts=4, nf=4)
+def riscv_nxv4i8x5   : VTVecTup<160, 5, i8, 208>; // RISCV vector tuple(min_num_elts=4, nf=5)
+def riscv_nxv4i8x6   : VTVecTup<192, 6, i8, 209>; // RISCV vector tuple(min_num_elts=4, nf=6)
+def riscv_nxv4i8x7   : VTVecTup<224, 7, i8, 210>; // RISCV vector tuple(min_num_elts=4, nf=7)
+def riscv_nxv4i8x8   : VTVecTup<256, 8, i8, 211>; // RISCV vector tuple(min_num_elts=4, nf=8)
+def riscv_nxv8i8x2   : VTVecTup<128, 2, i8, 212>; // RISCV vector tuple(min_num_elts=8, nf=2)
+def riscv_nxv8i8x3   : VTVecTup<192, 3, i8, 213>; // RISCV vector tuple(min_num_elts=8, nf=3)
+def riscv_nxv8i8x4   : VTVecTup<256, 4, i8, 214>; // RISCV vector tuple(min_num_elts=8, nf=4)
+def riscv_nxv8i8x5   : VTVecTup<320, 5, i8, 215>; // RISCV vector tuple(min_num_elts=8, nf=5)
+def riscv_nxv8i8x6   : VTVecTup<384, 6, i8, 216>; // RISCV vector tuple(min_num_elts=8, nf=6)
+def riscv_nxv8i8x7   : VTVecTup<448, 7, i8, 217>; // RISCV vector tuple(min_num_elts=8, nf=7)
+def riscv_nxv8i8x8   : VTVecTup<512, 8, i8, 218>; // RISCV vector tuple(min_num_elts=8, nf=8)
+def riscv_nxv16i8x2  : VTVecTup<256, 2, i8, 219>; // RISCV vector tuple(min_num_elts=16, nf=2)
+def riscv_nxv16i8x3  : VTVecTup<384, 3, i8, 220>; // RISCV vector tuple(min_num_elts=16, nf=3)
+def riscv_nxv16i8x4  : VTVecTup<512, 4, i8, 221>; // RISCV vector tuple(min_num_elts=16, nf=4)
+def riscv_nxv32i8x2  : VTVecTup<512, 2, i8, 222>; // RISCV vector tuple(min_num_elts=32, nf=2)
+
+def x86mmx    : ValueType<64,   223>;  // X86 MMX value
+def Glue      : ValueType<0,    224>;  // Pre-RA sched glue
+def isVoid    : ValueType<0,    225>;  // Produces no value
+def untyped   : ValueType<8,    226> { // Produces an untyped value
   let LLVMName = "Untyped";
 }
-def funcref   : ValueType<0,    226>;  // WebAssembly's funcref type
-def externref : ValueType<0,    227>;  // WebAssembly's externref type
-def exnref    : ValueType<0,    228>;  // W...
[truncated]

``````````

</details>


https://github.com/llvm/llvm-project/pull/111112


More information about the llvm-commits mailing list