[llvm] 84877a0 - [RISCV] Use unordered indexed loads for MGATHER.
Craig Topper via llvm-commits
llvm-commits at lists.llvm.org
Tue Jul 20 08:46:11 PDT 2021
Author: Craig Topper
Date: 2021-07-20T08:46:02-07:00
New Revision: 84877a098ab065ca2e3775ea4c69b22cae0403b1
URL: https://github.com/llvm/llvm-project/commit/84877a098ab065ca2e3775ea4c69b22cae0403b1
DIFF: https://github.com/llvm/llvm-project/commit/84877a098ab065ca2e3775ea4c69b22cae0403b1.diff
LOG: [RISCV] Use unordered indexed loads for MGATHER.
I don't think the semantics of the llvm masked gather intrinsic care
about the order the elements are loaded. For example, type legalization
by splitting will chain them in parallel. This is different than
scatter which we do chain in order.
Reviewed By: frasercrmck
Differential Revision: https://reviews.llvm.org/D106025
Added:
Modified:
llvm/lib/Target/RISCV/RISCVISelLowering.cpp
llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll
llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll
Removed:
################################################################################
diff --git a/llvm/lib/Target/RISCV/RISCVISelLowering.cpp b/llvm/lib/Target/RISCV/RISCVISelLowering.cpp
index 3fed12aa697bb..d97fe6547f641 100644
--- a/llvm/lib/Target/RISCV/RISCVISelLowering.cpp
+++ b/llvm/lib/Target/RISCV/RISCVISelLowering.cpp
@@ -4541,7 +4541,7 @@ SDValue RISCVTargetLowering::lowerMGATHER(SDValue Op, SelectionDAG &DAG) const {
VL = DAG.getRegister(RISCV::X0, XLenVT);
unsigned IntID =
- IsUnmasked ? Intrinsic::riscv_vloxei : Intrinsic::riscv_vloxei_mask;
+ IsUnmasked ? Intrinsic::riscv_vluxei : Intrinsic::riscv_vluxei_mask;
SmallVector<SDValue, 8> Ops{MGN->getChain(),
DAG.getTargetConstant(IntID, DL, XLenVT)};
if (!IsUnmasked)
diff --git a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll
index b3ea7f9ea5f2a..6dd345a10f091 100644
--- a/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll
+++ b/llvm/test/CodeGen/RISCV/rvv/fixed-vectors-masked-gather.ll
@@ -10,14 +10,14 @@ define <1 x i8> @mgather_v1i8(<1 x i8*> %ptrs, <1 x i1> %m, <1 x i8> %passthru)
; RV32-LABEL: mgather_v1i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 1, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v1i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 1, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <1 x i8> @llvm.masked.gather.v1i8.v1p0i8(<1 x i8*> %ptrs, i32 1, <1 x i1> %m, <1 x i8> %passthru)
@@ -30,14 +30,14 @@ define <2 x i8> @mgather_v2i8(<2 x i8*> %ptrs, <2 x i1> %m, <2 x i8> %passthru)
; RV32-LABEL: mgather_v2i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v2i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <2 x i8> @llvm.masked.gather.v2i8.v2p0i8(<2 x i8*> %ptrs, i32 1, <2 x i1> %m, <2 x i8> %passthru)
@@ -48,7 +48,7 @@ define <2 x i16> @mgather_v2i8_sextload_v2i16(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV32-LABEL: mgather_v2i8_sextload_v2i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e16, mf4, ta, mu
; RV32-NEXT: vsext.vf2 v8, v9
; RV32-NEXT: ret
@@ -56,7 +56,7 @@ define <2 x i16> @mgather_v2i8_sextload_v2i16(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV64-LABEL: mgather_v2i8_sextload_v2i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e16, mf4, ta, mu
; RV64-NEXT: vsext.vf2 v8, v9
; RV64-NEXT: ret
@@ -69,7 +69,7 @@ define <2 x i16> @mgather_v2i8_zextload_v2i16(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV32-LABEL: mgather_v2i8_zextload_v2i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e16, mf4, ta, mu
; RV32-NEXT: vzext.vf2 v8, v9
; RV32-NEXT: ret
@@ -77,7 +77,7 @@ define <2 x i16> @mgather_v2i8_zextload_v2i16(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV64-LABEL: mgather_v2i8_zextload_v2i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e16, mf4, ta, mu
; RV64-NEXT: vzext.vf2 v8, v9
; RV64-NEXT: ret
@@ -90,7 +90,7 @@ define <2 x i32> @mgather_v2i8_sextload_v2i32(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV32-LABEL: mgather_v2i8_sextload_v2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e32, mf2, ta, mu
; RV32-NEXT: vsext.vf4 v8, v9
; RV32-NEXT: ret
@@ -98,7 +98,7 @@ define <2 x i32> @mgather_v2i8_sextload_v2i32(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV64-LABEL: mgather_v2i8_sextload_v2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e32, mf2, ta, mu
; RV64-NEXT: vsext.vf4 v8, v9
; RV64-NEXT: ret
@@ -111,7 +111,7 @@ define <2 x i32> @mgather_v2i8_zextload_v2i32(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV32-LABEL: mgather_v2i8_zextload_v2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e32, mf2, ta, mu
; RV32-NEXT: vzext.vf4 v8, v9
; RV32-NEXT: ret
@@ -119,7 +119,7 @@ define <2 x i32> @mgather_v2i8_zextload_v2i32(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV64-LABEL: mgather_v2i8_zextload_v2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e32, mf2, ta, mu
; RV64-NEXT: vzext.vf4 v8, v9
; RV64-NEXT: ret
@@ -132,7 +132,7 @@ define <2 x i64> @mgather_v2i8_sextload_v2i64(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV32-LABEL: mgather_v2i8_sextload_v2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV32-NEXT: vsext.vf8 v8, v9
; RV32-NEXT: ret
@@ -140,7 +140,7 @@ define <2 x i64> @mgather_v2i8_sextload_v2i64(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV64-LABEL: mgather_v2i8_sextload_v2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV64-NEXT: vsext.vf8 v8, v9
; RV64-NEXT: ret
@@ -153,7 +153,7 @@ define <2 x i64> @mgather_v2i8_zextload_v2i64(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV32-LABEL: mgather_v2i8_zextload_v2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV32-NEXT: vzext.vf8 v8, v9
; RV32-NEXT: ret
@@ -161,7 +161,7 @@ define <2 x i64> @mgather_v2i8_zextload_v2i64(<2 x i8*> %ptrs, <2 x i1> %m, <2 x
; RV64-LABEL: mgather_v2i8_zextload_v2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV64-NEXT: vzext.vf8 v8, v9
; RV64-NEXT: ret
@@ -176,14 +176,14 @@ define <4 x i8> @mgather_v4i8(<4 x i8*> %ptrs, <4 x i1> %m, <4 x i8> %passthru)
; RV32-LABEL: mgather_v4i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e8, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v4i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e8, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <4 x i8> @llvm.masked.gather.v4i8.v4p0i8(<4 x i8*> %ptrs, i32 1, <4 x i1> %m, <4 x i8> %passthru)
@@ -194,14 +194,14 @@ define <4 x i8> @mgather_truemask_v4i8(<4 x i8*> %ptrs, <4 x i8> %passthru) {
; RV32-LABEL: mgather_truemask_v4i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e8, mf4, ta, mu
-; RV32-NEXT: vloxei32.v v25, (zero), v8
+; RV32-NEXT: vluxei32.v v25, (zero), v8
; RV32-NEXT: vmv1r.v v8, v25
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_v4i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e8, mf4, ta, mu
-; RV64-NEXT: vloxei64.v v25, (zero), v8
+; RV64-NEXT: vluxei64.v v25, (zero), v8
; RV64-NEXT: vmv1r.v v8, v25
; RV64-NEXT: ret
%mhead = insertelement <4 x i1> undef, i1 1, i32 0
@@ -230,14 +230,14 @@ define <8 x i8> @mgather_v8i8(<8 x i8*> %ptrs, <8 x i1> %m, <8 x i8> %passthru)
; RV32-LABEL: mgather_v8i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 8, e8, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v8i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 8, e8, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v12
; RV64-NEXT: ret
%v = call <8 x i8> @llvm.masked.gather.v8i8.v8p0i8(<8 x i8*> %ptrs, i32 1, <8 x i1> %m, <8 x i8> %passthru)
@@ -250,7 +250,7 @@ define <8 x i8> @mgather_baseidx_v8i8(i8* %base, <8 x i8> %idxs, <8 x i1> %m, <8
; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsetvli zero, zero, e8, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -259,7 +259,7 @@ define <8 x i8> @mgather_baseidx_v8i8(i8* %base, <8 x i8> %idxs, <8 x i1> %m, <8
; RV64-NEXT: vsetivli zero, 8, e64, m4, ta, mu
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsetvli zero, zero, e8, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i8, i8* %base, <8 x i8> %idxs
@@ -273,14 +273,14 @@ define <1 x i16> @mgather_v1i16(<1 x i16*> %ptrs, <1 x i1> %m, <1 x i16> %passth
; RV32-LABEL: mgather_v1i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 1, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v1i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 1, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <1 x i16> @llvm.masked.gather.v1i16.v1p0i16(<1 x i16*> %ptrs, i32 2, <1 x i1> %m, <1 x i16> %passthru)
@@ -293,14 +293,14 @@ define <2 x i16> @mgather_v2i16(<2 x i16*> %ptrs, <2 x i1> %m, <2 x i16> %passth
; RV32-LABEL: mgather_v2i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v2i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <2 x i16> @llvm.masked.gather.v2i16.v2p0i16(<2 x i16*> %ptrs, i32 2, <2 x i1> %m, <2 x i16> %passthru)
@@ -311,7 +311,7 @@ define <2 x i32> @mgather_v2i16_sextload_v2i32(<2 x i16*> %ptrs, <2 x i1> %m, <2
; RV32-LABEL: mgather_v2i16_sextload_v2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e32, mf2, ta, mu
; RV32-NEXT: vsext.vf2 v8, v9
; RV32-NEXT: ret
@@ -319,7 +319,7 @@ define <2 x i32> @mgather_v2i16_sextload_v2i32(<2 x i16*> %ptrs, <2 x i1> %m, <2
; RV64-LABEL: mgather_v2i16_sextload_v2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e32, mf2, ta, mu
; RV64-NEXT: vsext.vf2 v8, v9
; RV64-NEXT: ret
@@ -332,7 +332,7 @@ define <2 x i32> @mgather_v2i16_zextload_v2i32(<2 x i16*> %ptrs, <2 x i1> %m, <2
; RV32-LABEL: mgather_v2i16_zextload_v2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e32, mf2, ta, mu
; RV32-NEXT: vzext.vf2 v8, v9
; RV32-NEXT: ret
@@ -340,7 +340,7 @@ define <2 x i32> @mgather_v2i16_zextload_v2i32(<2 x i16*> %ptrs, <2 x i1> %m, <2
; RV64-LABEL: mgather_v2i16_zextload_v2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e32, mf2, ta, mu
; RV64-NEXT: vzext.vf2 v8, v9
; RV64-NEXT: ret
@@ -353,7 +353,7 @@ define <2 x i64> @mgather_v2i16_sextload_v2i64(<2 x i16*> %ptrs, <2 x i1> %m, <2
; RV32-LABEL: mgather_v2i16_sextload_v2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV32-NEXT: vsext.vf4 v8, v9
; RV32-NEXT: ret
@@ -361,7 +361,7 @@ define <2 x i64> @mgather_v2i16_sextload_v2i64(<2 x i16*> %ptrs, <2 x i1> %m, <2
; RV64-LABEL: mgather_v2i16_sextload_v2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV64-NEXT: vsext.vf4 v8, v9
; RV64-NEXT: ret
@@ -374,7 +374,7 @@ define <2 x i64> @mgather_v2i16_zextload_v2i64(<2 x i16*> %ptrs, <2 x i1> %m, <2
; RV32-LABEL: mgather_v2i16_zextload_v2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV32-NEXT: vzext.vf4 v8, v9
; RV32-NEXT: ret
@@ -382,7 +382,7 @@ define <2 x i64> @mgather_v2i16_zextload_v2i64(<2 x i16*> %ptrs, <2 x i1> %m, <2
; RV64-LABEL: mgather_v2i16_zextload_v2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV64-NEXT: vzext.vf4 v8, v9
; RV64-NEXT: ret
@@ -397,14 +397,14 @@ define <4 x i16> @mgather_v4i16(<4 x i16*> %ptrs, <4 x i1> %m, <4 x i16> %passth
; RV32-LABEL: mgather_v4i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e16, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v4i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e16, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <4 x i16> @llvm.masked.gather.v4i16.v4p0i16(<4 x i16*> %ptrs, i32 2, <4 x i1> %m, <4 x i16> %passthru)
@@ -415,14 +415,14 @@ define <4 x i16> @mgather_truemask_v4i16(<4 x i16*> %ptrs, <4 x i16> %passthru)
; RV32-LABEL: mgather_truemask_v4i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e16, mf2, ta, mu
-; RV32-NEXT: vloxei32.v v25, (zero), v8
+; RV32-NEXT: vluxei32.v v25, (zero), v8
; RV32-NEXT: vmv1r.v v8, v25
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_v4i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e16, mf2, ta, mu
-; RV64-NEXT: vloxei64.v v25, (zero), v8
+; RV64-NEXT: vluxei64.v v25, (zero), v8
; RV64-NEXT: vmv1r.v v8, v25
; RV64-NEXT: ret
%mhead = insertelement <4 x i1> undef, i1 1, i32 0
@@ -451,14 +451,14 @@ define <8 x i16> @mgather_v8i16(<8 x i16*> %ptrs, <8 x i1> %m, <8 x i16> %passth
; RV32-LABEL: mgather_v8i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 8, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v8i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 8, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v12
; RV64-NEXT: ret
%v = call <8 x i16> @llvm.masked.gather.v8i16.v8p0i16(<8 x i16*> %ptrs, i32 2, <8 x i1> %m, <8 x i16> %passthru)
@@ -472,7 +472,7 @@ define <8 x i16> @mgather_baseidx_v8i8_v8i16(i16* %base, <8 x i8> %idxs, <8 x i1
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 1
; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -482,7 +482,7 @@ define <8 x i16> @mgather_baseidx_v8i8_v8i16(i16* %base, <8 x i8> %idxs, <8 x i1
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 1
; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i16, i16* %base, <8 x i8> %idxs
@@ -497,7 +497,7 @@ define <8 x i16> @mgather_baseidx_sext_v8i8_v8i16(i16* %base, <8 x i8> %idxs, <8
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 1
; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -507,7 +507,7 @@ define <8 x i16> @mgather_baseidx_sext_v8i8_v8i16(i16* %base, <8 x i8> %idxs, <8
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 1
; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%eidxs = sext <8 x i8> %idxs to <8 x i16>
@@ -523,7 +523,7 @@ define <8 x i16> @mgather_baseidx_zext_v8i8_v8i16(i16* %base, <8 x i8> %idxs, <8
; RV32-NEXT: vzext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 1
; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -533,7 +533,7 @@ define <8 x i16> @mgather_baseidx_zext_v8i8_v8i16(i16* %base, <8 x i8> %idxs, <8
; RV64-NEXT: vzext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 1
; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%eidxs = zext <8 x i8> %idxs to <8 x i16>
@@ -549,7 +549,7 @@ define <8 x i16> @mgather_baseidx_v8i16(i16* %base, <8 x i16> %idxs, <8 x i1> %m
; RV32-NEXT: vsext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 1
; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -559,7 +559,7 @@ define <8 x i16> @mgather_baseidx_v8i16(i16* %base, <8 x i16> %idxs, <8 x i1> %m
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 1
; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i16, i16* %base, <8 x i16> %idxs
@@ -573,14 +573,14 @@ define <1 x i32> @mgather_v1i32(<1 x i32*> %ptrs, <1 x i1> %m, <1 x i32> %passth
; RV32-LABEL: mgather_v1i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 1, e32, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v1i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 1, e32, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <1 x i32> @llvm.masked.gather.v1i32.v1p0i32(<1 x i32*> %ptrs, i32 4, <1 x i1> %m, <1 x i32> %passthru)
@@ -593,14 +593,14 @@ define <2 x i32> @mgather_v2i32(<2 x i32*> %ptrs, <2 x i1> %m, <2 x i32> %passth
; RV32-LABEL: mgather_v2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e32, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e32, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <2 x i32> @llvm.masked.gather.v2i32.v2p0i32(<2 x i32*> %ptrs, i32 4, <2 x i1> %m, <2 x i32> %passthru)
@@ -611,7 +611,7 @@ define <2 x i64> @mgather_v2i32_sextload_v2i64(<2 x i32*> %ptrs, <2 x i1> %m, <2
; RV32-LABEL: mgather_v2i32_sextload_v2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e32, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV32-NEXT: vsext.vf2 v8, v9
; RV32-NEXT: ret
@@ -619,7 +619,7 @@ define <2 x i64> @mgather_v2i32_sextload_v2i64(<2 x i32*> %ptrs, <2 x i1> %m, <2
; RV64-LABEL: mgather_v2i32_sextload_v2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e32, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV64-NEXT: vsext.vf2 v8, v9
; RV64-NEXT: ret
@@ -632,7 +632,7 @@ define <2 x i64> @mgather_v2i32_zextload_v2i64(<2 x i32*> %ptrs, <2 x i1> %m, <2
; RV32-LABEL: mgather_v2i32_zextload_v2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e32, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV32-NEXT: vzext.vf2 v8, v9
; RV32-NEXT: ret
@@ -640,7 +640,7 @@ define <2 x i64> @mgather_v2i32_zextload_v2i64(<2 x i32*> %ptrs, <2 x i1> %m, <2
; RV64-LABEL: mgather_v2i32_zextload_v2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e32, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m1, ta, mu
; RV64-NEXT: vzext.vf2 v8, v9
; RV64-NEXT: ret
@@ -655,14 +655,14 @@ define <4 x i32> @mgather_v4i32(<4 x i32*> %ptrs, <4 x i1> %m, <4 x i32> %passth
; RV32-LABEL: mgather_v4i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e32, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v4i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e32, m1, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <4 x i32> @llvm.masked.gather.v4i32.v4p0i32(<4 x i32*> %ptrs, i32 4, <4 x i1> %m, <4 x i32> %passthru)
@@ -673,13 +673,13 @@ define <4 x i32> @mgather_truemask_v4i32(<4 x i32*> %ptrs, <4 x i32> %passthru)
; RV32-LABEL: mgather_truemask_v4i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e32, m1, ta, mu
-; RV32-NEXT: vloxei32.v v8, (zero), v8
+; RV32-NEXT: vluxei32.v v8, (zero), v8
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_v4i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e32, m1, ta, mu
-; RV64-NEXT: vloxei64.v v25, (zero), v8
+; RV64-NEXT: vluxei64.v v25, (zero), v8
; RV64-NEXT: vmv1r.v v8, v25
; RV64-NEXT: ret
%mhead = insertelement <4 x i1> undef, i1 1, i32 0
@@ -708,14 +708,14 @@ define <8 x i32> @mgather_v8i32(<8 x i32*> %ptrs, <8 x i1> %m, <8 x i32> %passth
; RV32-LABEL: mgather_v8i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 8, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v8i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 8, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v12
; RV64-NEXT: ret
%v = call <8 x i32> @llvm.masked.gather.v8i32.v8p0i32(<8 x i32*> %ptrs, i32 4, <8 x i1> %m, <8 x i32> %passthru)
@@ -729,7 +729,7 @@ define <8 x i32> @mgather_baseidx_v8i8_v8i32(i32* %base, <8 x i8> %idxs, <8 x i1
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -739,7 +739,7 @@ define <8 x i32> @mgather_baseidx_v8i8_v8i32(i32* %base, <8 x i8> %idxs, <8 x i1
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i32, i32* %base, <8 x i8> %idxs
@@ -754,7 +754,7 @@ define <8 x i32> @mgather_baseidx_sext_v8i8_v8i32(i32* %base, <8 x i8> %idxs, <8
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -764,7 +764,7 @@ define <8 x i32> @mgather_baseidx_sext_v8i8_v8i32(i32* %base, <8 x i8> %idxs, <8
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = sext <8 x i8> %idxs to <8 x i32>
@@ -780,7 +780,7 @@ define <8 x i32> @mgather_baseidx_zext_v8i8_v8i32(i32* %base, <8 x i8> %idxs, <8
; RV32-NEXT: vzext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -790,7 +790,7 @@ define <8 x i32> @mgather_baseidx_zext_v8i8_v8i32(i32* %base, <8 x i8> %idxs, <8
; RV64-NEXT: vzext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = zext <8 x i8> %idxs to <8 x i32>
@@ -806,7 +806,7 @@ define <8 x i32> @mgather_baseidx_v8i16_v8i32(i32* %base, <8 x i16> %idxs, <8 x
; RV32-NEXT: vsext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -816,7 +816,7 @@ define <8 x i32> @mgather_baseidx_v8i16_v8i32(i32* %base, <8 x i16> %idxs, <8 x
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i32, i32* %base, <8 x i16> %idxs
@@ -831,7 +831,7 @@ define <8 x i32> @mgather_baseidx_sext_v8i16_v8i32(i32* %base, <8 x i16> %idxs,
; RV32-NEXT: vsext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -841,7 +841,7 @@ define <8 x i32> @mgather_baseidx_sext_v8i16_v8i32(i32* %base, <8 x i16> %idxs,
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = sext <8 x i16> %idxs to <8 x i32>
@@ -857,7 +857,7 @@ define <8 x i32> @mgather_baseidx_zext_v8i16_v8i32(i32* %base, <8 x i16> %idxs,
; RV32-NEXT: vzext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -867,7 +867,7 @@ define <8 x i32> @mgather_baseidx_zext_v8i16_v8i32(i32* %base, <8 x i16> %idxs,
; RV64-NEXT: vzext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = zext <8 x i16> %idxs to <8 x i32>
@@ -882,7 +882,7 @@ define <8 x i32> @mgather_baseidx_v8i32(i32* %base, <8 x i32> %idxs, <8 x i1> %m
; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu
; RV32-NEXT: vsll.vi v26, v8, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -892,7 +892,7 @@ define <8 x i32> @mgather_baseidx_v8i32(i32* %base, <8 x i32> %idxs, <8 x i1> %m
; RV64-NEXT: vsext.vf2 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i32, i32* %base, <8 x i32> %idxs
@@ -906,14 +906,14 @@ define <1 x i64> @mgather_v1i64(<1 x i64*> %ptrs, <1 x i1> %m, <1 x i64> %passth
; RV32-LABEL: mgather_v1i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 1, e64, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v1i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 1, e64, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <1 x i64> @llvm.masked.gather.v1i64.v1p0i64(<1 x i64*> %ptrs, i32 8, <1 x i1> %m, <1 x i64> %passthru)
@@ -926,14 +926,14 @@ define <2 x i64> @mgather_v2i64(<2 x i64*> %ptrs, <2 x i1> %m, <2 x i64> %passth
; RV32-LABEL: mgather_v2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e64, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e64, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <2 x i64> @llvm.masked.gather.v2i64.v2p0i64(<2 x i64*> %ptrs, i32 8, <2 x i1> %m, <2 x i64> %passthru)
@@ -946,14 +946,14 @@ define <4 x i64> @mgather_v4i64(<4 x i64*> %ptrs, <4 x i1> %m, <4 x i64> %passth
; RV32-LABEL: mgather_v4i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e64, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v4i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e64, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%v = call <4 x i64> @llvm.masked.gather.v4i64.v4p0i64(<4 x i64*> %ptrs, i32 8, <4 x i1> %m, <4 x i64> %passthru)
@@ -964,14 +964,14 @@ define <4 x i64> @mgather_truemask_v4i64(<4 x i64*> %ptrs, <4 x i64> %passthru)
; RV32-LABEL: mgather_truemask_v4i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e64, m2, ta, mu
-; RV32-NEXT: vloxei32.v v26, (zero), v8
+; RV32-NEXT: vluxei32.v v26, (zero), v8
; RV32-NEXT: vmv2r.v v8, v26
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_v4i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e64, m2, ta, mu
-; RV64-NEXT: vloxei64.v v8, (zero), v8
+; RV64-NEXT: vluxei64.v v8, (zero), v8
; RV64-NEXT: ret
%mhead = insertelement <4 x i1> undef, i1 1, i32 0
%mtrue = shufflevector <4 x i1> %mhead, <4 x i1> undef, <4 x i32> zeroinitializer
@@ -999,14 +999,14 @@ define <8 x i64> @mgather_v8i64(<8 x i64*> %ptrs, <8 x i1> %m, <8 x i64> %passth
; RV32-LABEL: mgather_v8i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 8, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v8i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 8, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%v = call <8 x i64> @llvm.masked.gather.v8i64.v8p0i64(<8 x i64*> %ptrs, i32 8, <8 x i1> %m, <8 x i64> %passthru)
@@ -1020,7 +1020,7 @@ define <8 x i64> @mgather_baseidx_v8i8_v8i64(i64* %base, <8 x i8> %idxs, <8 x i1
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1030,7 +1030,7 @@ define <8 x i64> @mgather_baseidx_v8i8_v8i64(i64* %base, <8 x i8> %idxs, <8 x i1
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i64, i64* %base, <8 x i8> %idxs
@@ -1045,7 +1045,7 @@ define <8 x i64> @mgather_baseidx_sext_v8i8_v8i64(i64* %base, <8 x i8> %idxs, <8
; RV32-NEXT: vsext.vf8 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1055,7 +1055,7 @@ define <8 x i64> @mgather_baseidx_sext_v8i8_v8i64(i64* %base, <8 x i8> %idxs, <8
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <8 x i8> %idxs to <8 x i64>
@@ -1071,7 +1071,7 @@ define <8 x i64> @mgather_baseidx_zext_v8i8_v8i64(i64* %base, <8 x i8> %idxs, <8
; RV32-NEXT: vzext.vf8 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1081,7 +1081,7 @@ define <8 x i64> @mgather_baseidx_zext_v8i8_v8i64(i64* %base, <8 x i8> %idxs, <8
; RV64-NEXT: vzext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <8 x i8> %idxs to <8 x i64>
@@ -1097,7 +1097,7 @@ define <8 x i64> @mgather_baseidx_v8i16_v8i64(i64* %base, <8 x i16> %idxs, <8 x
; RV32-NEXT: vsext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1107,7 +1107,7 @@ define <8 x i64> @mgather_baseidx_v8i16_v8i64(i64* %base, <8 x i16> %idxs, <8 x
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i64, i64* %base, <8 x i16> %idxs
@@ -1122,7 +1122,7 @@ define <8 x i64> @mgather_baseidx_sext_v8i16_v8i64(i64* %base, <8 x i16> %idxs,
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1132,7 +1132,7 @@ define <8 x i64> @mgather_baseidx_sext_v8i16_v8i64(i64* %base, <8 x i16> %idxs,
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <8 x i16> %idxs to <8 x i64>
@@ -1148,7 +1148,7 @@ define <8 x i64> @mgather_baseidx_zext_v8i16_v8i64(i64* %base, <8 x i16> %idxs,
; RV32-NEXT: vzext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1158,7 +1158,7 @@ define <8 x i64> @mgather_baseidx_zext_v8i16_v8i64(i64* %base, <8 x i16> %idxs,
; RV64-NEXT: vzext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <8 x i16> %idxs to <8 x i64>
@@ -1173,7 +1173,7 @@ define <8 x i64> @mgather_baseidx_v8i32_v8i64(i64* %base, <8 x i32> %idxs, <8 x
; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu
; RV32-NEXT: vsll.vi v26, v8, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1183,7 +1183,7 @@ define <8 x i64> @mgather_baseidx_v8i32_v8i64(i64* %base, <8 x i32> %idxs, <8 x
; RV64-NEXT: vsext.vf2 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i64, i64* %base, <8 x i32> %idxs
@@ -1198,7 +1198,7 @@ define <8 x i64> @mgather_baseidx_sext_v8i32_v8i64(i64* %base, <8 x i32> %idxs,
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1208,7 +1208,7 @@ define <8 x i64> @mgather_baseidx_sext_v8i32_v8i64(i64* %base, <8 x i32> %idxs,
; RV64-NEXT: vsext.vf2 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <8 x i32> %idxs to <8 x i64>
@@ -1224,7 +1224,7 @@ define <8 x i64> @mgather_baseidx_zext_v8i32_v8i64(i64* %base, <8 x i32> %idxs,
; RV32-NEXT: vzext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1234,7 +1234,7 @@ define <8 x i64> @mgather_baseidx_zext_v8i32_v8i64(i64* %base, <8 x i32> %idxs,
; RV64-NEXT: vzext.vf2 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <8 x i32> %idxs to <8 x i64>
@@ -1249,7 +1249,7 @@ define <8 x i64> @mgather_baseidx_v8i64(i64* %base, <8 x i64> %idxs, <8 x i1> %m
; RV32-NEXT: vsetivli zero, 8, e64, m4, ta, mu
; RV32-NEXT: vsll.vi v28, v8, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1258,7 +1258,7 @@ define <8 x i64> @mgather_baseidx_v8i64(i64* %base, <8 x i64> %idxs, <8 x i1> %m
; RV64-NEXT: vsetivli zero, 8, e64, m4, ta, mu
; RV64-NEXT: vsll.vi v28, v8, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i64, i64* %base, <8 x i64> %idxs
@@ -1272,14 +1272,14 @@ define <1 x half> @mgather_v1f16(<1 x half*> %ptrs, <1 x i1> %m, <1 x half> %pas
; RV32-LABEL: mgather_v1f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 1, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v1f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 1, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <1 x half> @llvm.masked.gather.v1f16.v1p0f16(<1 x half*> %ptrs, i32 2, <1 x i1> %m, <1 x half> %passthru)
@@ -1292,14 +1292,14 @@ define <2 x half> @mgather_v2f16(<2 x half*> %ptrs, <2 x i1> %m, <2 x half> %pas
; RV32-LABEL: mgather_v2f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v2f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <2 x half> @llvm.masked.gather.v2f16.v2p0f16(<2 x half*> %ptrs, i32 2, <2 x i1> %m, <2 x half> %passthru)
@@ -1312,14 +1312,14 @@ define <4 x half> @mgather_v4f16(<4 x half*> %ptrs, <4 x i1> %m, <4 x half> %pas
; RV32-LABEL: mgather_v4f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e16, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v4f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e16, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <4 x half> @llvm.masked.gather.v4f16.v4p0f16(<4 x half*> %ptrs, i32 2, <4 x i1> %m, <4 x half> %passthru)
@@ -1330,14 +1330,14 @@ define <4 x half> @mgather_truemask_v4f16(<4 x half*> %ptrs, <4 x half> %passthr
; RV32-LABEL: mgather_truemask_v4f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e16, mf2, ta, mu
-; RV32-NEXT: vloxei32.v v25, (zero), v8
+; RV32-NEXT: vluxei32.v v25, (zero), v8
; RV32-NEXT: vmv1r.v v8, v25
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_v4f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e16, mf2, ta, mu
-; RV64-NEXT: vloxei64.v v25, (zero), v8
+; RV64-NEXT: vluxei64.v v25, (zero), v8
; RV64-NEXT: vmv1r.v v8, v25
; RV64-NEXT: ret
%mhead = insertelement <4 x i1> undef, i1 1, i32 0
@@ -1366,14 +1366,14 @@ define <8 x half> @mgather_v8f16(<8 x half*> %ptrs, <8 x i1> %m, <8 x half> %pas
; RV32-LABEL: mgather_v8f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 8, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v8f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 8, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v12
; RV64-NEXT: ret
%v = call <8 x half> @llvm.masked.gather.v8f16.v8p0f16(<8 x half*> %ptrs, i32 2, <8 x i1> %m, <8 x half> %passthru)
@@ -1387,7 +1387,7 @@ define <8 x half> @mgather_baseidx_v8i8_v8f16(half* %base, <8 x i8> %idxs, <8 x
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 1
; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -1397,7 +1397,7 @@ define <8 x half> @mgather_baseidx_v8i8_v8f16(half* %base, <8 x i8> %idxs, <8 x
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 1
; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%ptrs = getelementptr inbounds half, half* %base, <8 x i8> %idxs
@@ -1412,7 +1412,7 @@ define <8 x half> @mgather_baseidx_sext_v8i8_v8f16(half* %base, <8 x i8> %idxs,
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 1
; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -1422,7 +1422,7 @@ define <8 x half> @mgather_baseidx_sext_v8i8_v8f16(half* %base, <8 x i8> %idxs,
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 1
; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%eidxs = sext <8 x i8> %idxs to <8 x i16>
@@ -1438,7 +1438,7 @@ define <8 x half> @mgather_baseidx_zext_v8i8_v8f16(half* %base, <8 x i8> %idxs,
; RV32-NEXT: vzext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 1
; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -1448,7 +1448,7 @@ define <8 x half> @mgather_baseidx_zext_v8i8_v8f16(half* %base, <8 x i8> %idxs,
; RV64-NEXT: vzext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 1
; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%eidxs = zext <8 x i8> %idxs to <8 x i16>
@@ -1464,7 +1464,7 @@ define <8 x half> @mgather_baseidx_v8f16(half* %base, <8 x i16> %idxs, <8 x i1>
; RV32-NEXT: vsext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 1
; RV32-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v26, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -1474,7 +1474,7 @@ define <8 x half> @mgather_baseidx_v8f16(half* %base, <8 x i16> %idxs, <8 x i1>
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 1
; RV64-NEXT: vsetvli zero, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v28, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%ptrs = getelementptr inbounds half, half* %base, <8 x i16> %idxs
@@ -1488,14 +1488,14 @@ define <1 x float> @mgather_v1f32(<1 x float*> %ptrs, <1 x i1> %m, <1 x float> %
; RV32-LABEL: mgather_v1f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 1, e32, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v1f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 1, e32, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <1 x float> @llvm.masked.gather.v1f32.v1p0f32(<1 x float*> %ptrs, i32 4, <1 x i1> %m, <1 x float> %passthru)
@@ -1508,14 +1508,14 @@ define <2 x float> @mgather_v2f32(<2 x float*> %ptrs, <2 x i1> %m, <2 x float> %
; RV32-LABEL: mgather_v2f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e32, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v2f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e32, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <2 x float> @llvm.masked.gather.v2f32.v2p0f32(<2 x float*> %ptrs, i32 4, <2 x i1> %m, <2 x float> %passthru)
@@ -1528,14 +1528,14 @@ define <4 x float> @mgather_v4f32(<4 x float*> %ptrs, <4 x i1> %m, <4 x float> %
; RV32-LABEL: mgather_v4f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e32, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v4f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e32, m1, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <4 x float> @llvm.masked.gather.v4f32.v4p0f32(<4 x float*> %ptrs, i32 4, <4 x i1> %m, <4 x float> %passthru)
@@ -1546,13 +1546,13 @@ define <4 x float> @mgather_truemask_v4f32(<4 x float*> %ptrs, <4 x float> %pass
; RV32-LABEL: mgather_truemask_v4f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e32, m1, ta, mu
-; RV32-NEXT: vloxei32.v v8, (zero), v8
+; RV32-NEXT: vluxei32.v v8, (zero), v8
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_v4f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e32, m1, ta, mu
-; RV64-NEXT: vloxei64.v v25, (zero), v8
+; RV64-NEXT: vluxei64.v v25, (zero), v8
; RV64-NEXT: vmv1r.v v8, v25
; RV64-NEXT: ret
%mhead = insertelement <4 x i1> undef, i1 1, i32 0
@@ -1581,14 +1581,14 @@ define <8 x float> @mgather_v8f32(<8 x float*> %ptrs, <8 x i1> %m, <8 x float> %
; RV32-LABEL: mgather_v8f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 8, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v8f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 8, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v12
; RV64-NEXT: ret
%v = call <8 x float> @llvm.masked.gather.v8f32.v8p0f32(<8 x float*> %ptrs, i32 4, <8 x i1> %m, <8 x float> %passthru)
@@ -1602,7 +1602,7 @@ define <8 x float> @mgather_baseidx_v8i8_v8f32(float* %base, <8 x i8> %idxs, <8
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1612,7 +1612,7 @@ define <8 x float> @mgather_baseidx_v8i8_v8f32(float* %base, <8 x i8> %idxs, <8
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds float, float* %base, <8 x i8> %idxs
@@ -1627,7 +1627,7 @@ define <8 x float> @mgather_baseidx_sext_v8i8_v8f32(float* %base, <8 x i8> %idxs
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1637,7 +1637,7 @@ define <8 x float> @mgather_baseidx_sext_v8i8_v8f32(float* %base, <8 x i8> %idxs
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = sext <8 x i8> %idxs to <8 x i32>
@@ -1653,7 +1653,7 @@ define <8 x float> @mgather_baseidx_zext_v8i8_v8f32(float* %base, <8 x i8> %idxs
; RV32-NEXT: vzext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1663,7 +1663,7 @@ define <8 x float> @mgather_baseidx_zext_v8i8_v8f32(float* %base, <8 x i8> %idxs
; RV64-NEXT: vzext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = zext <8 x i8> %idxs to <8 x i32>
@@ -1679,7 +1679,7 @@ define <8 x float> @mgather_baseidx_v8i16_v8f32(float* %base, <8 x i16> %idxs, <
; RV32-NEXT: vsext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1689,7 +1689,7 @@ define <8 x float> @mgather_baseidx_v8i16_v8f32(float* %base, <8 x i16> %idxs, <
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds float, float* %base, <8 x i16> %idxs
@@ -1704,7 +1704,7 @@ define <8 x float> @mgather_baseidx_sext_v8i16_v8f32(float* %base, <8 x i16> %id
; RV32-NEXT: vsext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1714,7 +1714,7 @@ define <8 x float> @mgather_baseidx_sext_v8i16_v8f32(float* %base, <8 x i16> %id
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = sext <8 x i16> %idxs to <8 x i32>
@@ -1730,7 +1730,7 @@ define <8 x float> @mgather_baseidx_zext_v8i16_v8f32(float* %base, <8 x i16> %id
; RV32-NEXT: vzext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1740,7 +1740,7 @@ define <8 x float> @mgather_baseidx_zext_v8i16_v8f32(float* %base, <8 x i16> %id
; RV64-NEXT: vzext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = zext <8 x i16> %idxs to <8 x i32>
@@ -1755,7 +1755,7 @@ define <8 x float> @mgather_baseidx_v8f32(float* %base, <8 x i32> %idxs, <8 x i1
; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu
; RV32-NEXT: vsll.vi v26, v8, 2
; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v26, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1765,7 +1765,7 @@ define <8 x float> @mgather_baseidx_v8f32(float* %base, <8 x i32> %idxs, <8 x i1
; RV64-NEXT: vsext.vf2 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 2
; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v28, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds float, float* %base, <8 x i32> %idxs
@@ -1779,14 +1779,14 @@ define <1 x double> @mgather_v1f64(<1 x double*> %ptrs, <1 x i1> %m, <1 x double
; RV32-LABEL: mgather_v1f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 1, e64, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v1f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 1, e64, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <1 x double> @llvm.masked.gather.v1f64.v1p0f64(<1 x double*> %ptrs, i32 8, <1 x i1> %m, <1 x double> %passthru)
@@ -1799,14 +1799,14 @@ define <2 x double> @mgather_v2f64(<2 x double*> %ptrs, <2 x i1> %m, <2 x double
; RV32-LABEL: mgather_v2f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 2, e64, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v2f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 2, e64, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <2 x double> @llvm.masked.gather.v2f64.v2p0f64(<2 x double*> %ptrs, i32 8, <2 x i1> %m, <2 x double> %passthru)
@@ -1819,14 +1819,14 @@ define <4 x double> @mgather_v4f64(<4 x double*> %ptrs, <4 x i1> %m, <4 x double
; RV32-LABEL: mgather_v4f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e64, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v4f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e64, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%v = call <4 x double> @llvm.masked.gather.v4f64.v4p0f64(<4 x double*> %ptrs, i32 8, <4 x i1> %m, <4 x double> %passthru)
@@ -1837,14 +1837,14 @@ define <4 x double> @mgather_truemask_v4f64(<4 x double*> %ptrs, <4 x double> %p
; RV32-LABEL: mgather_truemask_v4f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 4, e64, m2, ta, mu
-; RV32-NEXT: vloxei32.v v26, (zero), v8
+; RV32-NEXT: vluxei32.v v26, (zero), v8
; RV32-NEXT: vmv2r.v v8, v26
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_v4f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 4, e64, m2, ta, mu
-; RV64-NEXT: vloxei64.v v8, (zero), v8
+; RV64-NEXT: vluxei64.v v8, (zero), v8
; RV64-NEXT: ret
%mhead = insertelement <4 x i1> undef, i1 1, i32 0
%mtrue = shufflevector <4 x i1> %mhead, <4 x i1> undef, <4 x i32> zeroinitializer
@@ -1872,14 +1872,14 @@ define <8 x double> @mgather_v8f64(<8 x double*> %ptrs, <8 x i1> %m, <8 x double
; RV32-LABEL: mgather_v8f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetivli zero, 8, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_v8f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetivli zero, 8, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%v = call <8 x double> @llvm.masked.gather.v8f64.v8p0f64(<8 x double*> %ptrs, i32 8, <8 x i1> %m, <8 x double> %passthru)
@@ -1893,7 +1893,7 @@ define <8 x double> @mgather_baseidx_v8i8_v8f64(double* %base, <8 x i8> %idxs, <
; RV32-NEXT: vsext.vf4 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1903,7 +1903,7 @@ define <8 x double> @mgather_baseidx_v8i8_v8f64(double* %base, <8 x i8> %idxs, <
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds double, double* %base, <8 x i8> %idxs
@@ -1918,7 +1918,7 @@ define <8 x double> @mgather_baseidx_sext_v8i8_v8f64(double* %base, <8 x i8> %id
; RV32-NEXT: vsext.vf8 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1928,7 +1928,7 @@ define <8 x double> @mgather_baseidx_sext_v8i8_v8f64(double* %base, <8 x i8> %id
; RV64-NEXT: vsext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <8 x i8> %idxs to <8 x i64>
@@ -1944,7 +1944,7 @@ define <8 x double> @mgather_baseidx_zext_v8i8_v8f64(double* %base, <8 x i8> %id
; RV32-NEXT: vzext.vf8 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1954,7 +1954,7 @@ define <8 x double> @mgather_baseidx_zext_v8i8_v8f64(double* %base, <8 x i8> %id
; RV64-NEXT: vzext.vf8 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <8 x i8> %idxs to <8 x i64>
@@ -1970,7 +1970,7 @@ define <8 x double> @mgather_baseidx_v8i16_v8f64(double* %base, <8 x i16> %idxs,
; RV32-NEXT: vsext.vf2 v26, v8
; RV32-NEXT: vsll.vi v26, v26, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1980,7 +1980,7 @@ define <8 x double> @mgather_baseidx_v8i16_v8f64(double* %base, <8 x i16> %idxs,
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds double, double* %base, <8 x i16> %idxs
@@ -1995,7 +1995,7 @@ define <8 x double> @mgather_baseidx_sext_v8i16_v8f64(double* %base, <8 x i16> %
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -2005,7 +2005,7 @@ define <8 x double> @mgather_baseidx_sext_v8i16_v8f64(double* %base, <8 x i16> %
; RV64-NEXT: vsext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <8 x i16> %idxs to <8 x i64>
@@ -2021,7 +2021,7 @@ define <8 x double> @mgather_baseidx_zext_v8i16_v8f64(double* %base, <8 x i16> %
; RV32-NEXT: vzext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -2031,7 +2031,7 @@ define <8 x double> @mgather_baseidx_zext_v8i16_v8f64(double* %base, <8 x i16> %
; RV64-NEXT: vzext.vf4 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <8 x i16> %idxs to <8 x i64>
@@ -2046,7 +2046,7 @@ define <8 x double> @mgather_baseidx_v8i32_v8f64(double* %base, <8 x i32> %idxs,
; RV32-NEXT: vsetivli zero, 8, e32, m2, ta, mu
; RV32-NEXT: vsll.vi v26, v8, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v26, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v26, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -2056,7 +2056,7 @@ define <8 x double> @mgather_baseidx_v8i32_v8f64(double* %base, <8 x i32> %idxs,
; RV64-NEXT: vsext.vf2 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds double, double* %base, <8 x i32> %idxs
@@ -2071,7 +2071,7 @@ define <8 x double> @mgather_baseidx_sext_v8i32_v8f64(double* %base, <8 x i32> %
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -2081,7 +2081,7 @@ define <8 x double> @mgather_baseidx_sext_v8i32_v8f64(double* %base, <8 x i32> %
; RV64-NEXT: vsext.vf2 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <8 x i32> %idxs to <8 x i64>
@@ -2097,7 +2097,7 @@ define <8 x double> @mgather_baseidx_zext_v8i32_v8f64(double* %base, <8 x i32> %
; RV32-NEXT: vzext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -2107,7 +2107,7 @@ define <8 x double> @mgather_baseidx_zext_v8i32_v8f64(double* %base, <8 x i32> %
; RV64-NEXT: vzext.vf2 v28, v8
; RV64-NEXT: vsll.vi v28, v28, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <8 x i32> %idxs to <8 x i64>
@@ -2122,7 +2122,7 @@ define <8 x double> @mgather_baseidx_v8f64(double* %base, <8 x i64> %idxs, <8 x
; RV32-NEXT: vsetivli zero, 8, e64, m4, ta, mu
; RV32-NEXT: vsll.vi v28, v8, 3
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -2131,7 +2131,7 @@ define <8 x double> @mgather_baseidx_v8f64(double* %base, <8 x i64> %idxs, <8 x
; RV64-NEXT: vsetivli zero, 8, e64, m4, ta, mu
; RV64-NEXT: vsll.vi v28, v8, 3
; RV64-NEXT: vsetvli zero, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v28, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v28, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds double, double* %base, <8 x i64> %idxs
@@ -2147,7 +2147,7 @@ define <16 x i8> @mgather_baseidx_v16i8(i8* %base, <16 x i8> %idxs, <16 x i1> %m
; RV32-NEXT: vsetivli zero, 16, e32, m4, ta, mu
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsetvli zero, zero, e8, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v28, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -2156,7 +2156,7 @@ define <16 x i8> @mgather_baseidx_v16i8(i8* %base, <16 x i8> %idxs, <16 x i1> %m
; RV64-NEXT: vsetivli zero, 16, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v16, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i8, i8* %base, <16 x i8> %idxs
@@ -2173,7 +2173,7 @@ define <32 x i8> @mgather_baseidx_v32i8(i8* %base, <32 x i8> %idxs, <32 x i1> %m
; RV32-NEXT: vsetvli zero, a1, e32, m8, ta, mu
; RV32-NEXT: vsext.vf4 v16, v8
; RV32-NEXT: vsetvli zero, zero, e8, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v16, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v16, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -2188,12 +2188,12 @@ define <32 x i8> @mgather_baseidx_v32i8(i8* %base, <32 x i8> %idxs, <32 x i1> %m
; RV64-NEXT: vsetivli zero, 2, e8, mf4, ta, mu
; RV64-NEXT: vslidedown.vi v0, v0, 2
; RV64-NEXT: vsetivli zero, 16, e8, m1, tu, mu
-; RV64-NEXT: vloxei64.v v26, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v26, (a0), v16, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
; RV64-NEXT: vmv1r.v v0, v25
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: addi a0, zero, 32
; RV64-NEXT: vsetvli zero, a0, e8, m2, ta, mu
; RV64-NEXT: vmv.v.i v8, 0
diff --git a/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll b/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll
index 91529aec0acd3..27120b8480bdd 100644
--- a/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll
+++ b/llvm/test/CodeGen/RISCV/rvv/mgather-sdnode.ll
@@ -10,14 +10,14 @@ define <vscale x 1 x i8> @mgather_nxv1i8(<vscale x 1 x i8*> %ptrs, <vscale x 1 x
; RV32-LABEL: mgather_nxv1i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf8, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv1i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf8, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <vscale x 1 x i8> @llvm.masked.gather.nxv1i8.nxv1p0i8(<vscale x 1 x i8*> %ptrs, i32 1, <vscale x 1 x i1> %m, <vscale x 1 x i8> %passthru)
@@ -30,14 +30,14 @@ define <vscale x 2 x i8> @mgather_nxv2i8(<vscale x 2 x i8*> %ptrs, <vscale x 2 x
; RV32-LABEL: mgather_nxv2i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv2i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <vscale x 2 x i8> @llvm.masked.gather.nxv2i8.nxv2p0i8(<vscale x 2 x i8*> %ptrs, i32 1, <vscale x 2 x i1> %m, <vscale x 2 x i8> %passthru)
@@ -48,7 +48,7 @@ define <vscale x 2 x i16> @mgather_nxv2i8_sextload_nxv2i16(<vscale x 2 x i8*> %p
; RV32-LABEL: mgather_nxv2i8_sextload_nxv2i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e16, mf2, ta, mu
; RV32-NEXT: vsext.vf2 v8, v9
; RV32-NEXT: ret
@@ -56,7 +56,7 @@ define <vscale x 2 x i16> @mgather_nxv2i8_sextload_nxv2i16(<vscale x 2 x i8*> %p
; RV64-LABEL: mgather_nxv2i8_sextload_nxv2i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e16, mf2, ta, mu
; RV64-NEXT: vsext.vf2 v8, v10
; RV64-NEXT: ret
@@ -69,7 +69,7 @@ define <vscale x 2 x i16> @mgather_nxv2i8_zextload_nxv2i16(<vscale x 2 x i8*> %p
; RV32-LABEL: mgather_nxv2i8_zextload_nxv2i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e16, mf2, ta, mu
; RV32-NEXT: vzext.vf2 v8, v9
; RV32-NEXT: ret
@@ -77,7 +77,7 @@ define <vscale x 2 x i16> @mgather_nxv2i8_zextload_nxv2i16(<vscale x 2 x i8*> %p
; RV64-LABEL: mgather_nxv2i8_zextload_nxv2i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e16, mf2, ta, mu
; RV64-NEXT: vzext.vf2 v8, v10
; RV64-NEXT: ret
@@ -90,7 +90,7 @@ define <vscale x 2 x i32> @mgather_nxv2i8_sextload_nxv2i32(<vscale x 2 x i8*> %p
; RV32-LABEL: mgather_nxv2i8_sextload_nxv2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e32, m1, ta, mu
; RV32-NEXT: vsext.vf4 v8, v9
; RV32-NEXT: ret
@@ -98,7 +98,7 @@ define <vscale x 2 x i32> @mgather_nxv2i8_sextload_nxv2i32(<vscale x 2 x i8*> %p
; RV64-LABEL: mgather_nxv2i8_sextload_nxv2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e32, m1, ta, mu
; RV64-NEXT: vsext.vf4 v8, v10
; RV64-NEXT: ret
@@ -111,7 +111,7 @@ define <vscale x 2 x i32> @mgather_nxv2i8_zextload_nxv2i32(<vscale x 2 x i8*> %p
; RV32-LABEL: mgather_nxv2i8_zextload_nxv2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e32, m1, ta, mu
; RV32-NEXT: vzext.vf4 v8, v9
; RV32-NEXT: ret
@@ -119,7 +119,7 @@ define <vscale x 2 x i32> @mgather_nxv2i8_zextload_nxv2i32(<vscale x 2 x i8*> %p
; RV64-LABEL: mgather_nxv2i8_zextload_nxv2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e32, m1, ta, mu
; RV64-NEXT: vzext.vf4 v8, v10
; RV64-NEXT: ret
@@ -132,7 +132,7 @@ define <vscale x 2 x i64> @mgather_nxv2i8_sextload_nxv2i64(<vscale x 2 x i8*> %p
; RV32-LABEL: mgather_nxv2i8_sextload_nxv2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV32-NEXT: vsext.vf8 v26, v9
; RV32-NEXT: vmv2r.v v8, v26
@@ -141,7 +141,7 @@ define <vscale x 2 x i64> @mgather_nxv2i8_sextload_nxv2i64(<vscale x 2 x i8*> %p
; RV64-LABEL: mgather_nxv2i8_sextload_nxv2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV64-NEXT: vsext.vf8 v8, v10
; RV64-NEXT: ret
@@ -154,7 +154,7 @@ define <vscale x 2 x i64> @mgather_nxv2i8_zextload_nxv2i64(<vscale x 2 x i8*> %p
; RV32-LABEL: mgather_nxv2i8_zextload_nxv2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV32-NEXT: vzext.vf8 v26, v9
; RV32-NEXT: vmv2r.v v8, v26
@@ -163,7 +163,7 @@ define <vscale x 2 x i64> @mgather_nxv2i8_zextload_nxv2i64(<vscale x 2 x i8*> %p
; RV64-LABEL: mgather_nxv2i8_zextload_nxv2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV64-NEXT: vzext.vf8 v8, v10
; RV64-NEXT: ret
@@ -178,14 +178,14 @@ define <vscale x 4 x i8> @mgather_nxv4i8(<vscale x 4 x i8*> %ptrs, <vscale x 4 x
; RV32-LABEL: mgather_nxv4i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv4i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v12
; RV64-NEXT: ret
%v = call <vscale x 4 x i8> @llvm.masked.gather.nxv4i8.nxv4p0i8(<vscale x 4 x i8*> %ptrs, i32 1, <vscale x 4 x i1> %m, <vscale x 4 x i8> %passthru)
@@ -196,14 +196,14 @@ define <vscale x 4 x i8> @mgather_truemask_nxv4i8(<vscale x 4 x i8*> %ptrs, <vsc
; RV32-LABEL: mgather_truemask_nxv4i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, mf2, ta, mu
-; RV32-NEXT: vloxei32.v v25, (zero), v8
+; RV32-NEXT: vluxei32.v v25, (zero), v8
; RV32-NEXT: vmv1r.v v8, v25
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_nxv4i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, mf2, ta, mu
-; RV64-NEXT: vloxei64.v v25, (zero), v8
+; RV64-NEXT: vluxei64.v v25, (zero), v8
; RV64-NEXT: vmv1r.v v8, v25
; RV64-NEXT: ret
%mhead = insertelement <vscale x 4 x i1> undef, i1 1, i32 0
@@ -232,14 +232,14 @@ define <vscale x 8 x i8> @mgather_nxv8i8(<vscale x 8 x i8*> %ptrs, <vscale x 8 x
; RV32-LABEL: mgather_nxv8i8:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e8, m1, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv8i8:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e8, m1, tu, mu
-; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v16
; RV64-NEXT: ret
%v = call <vscale x 8 x i8> @llvm.masked.gather.nxv8i8.nxv8p0i8(<vscale x 8 x i8*> %ptrs, i32 1, <vscale x 8 x i1> %m, <vscale x 8 x i8> %passthru)
@@ -252,7 +252,7 @@ define <vscale x 8 x i8> @mgather_baseidx_nxv8i8(i8* %base, <vscale x 8 x i8> %i
; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsetvli zero, zero, e8, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v9, (a0), v28, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
@@ -261,7 +261,7 @@ define <vscale x 8 x i8> @mgather_baseidx_nxv8i8(i8* %base, <vscale x 8 x i8> %i
; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v9, (a0), v16, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i8, i8* %base, <vscale x 8 x i8> %idxs
@@ -275,14 +275,14 @@ define <vscale x 1 x i16> @mgather_nxv1i16(<vscale x 1 x i16*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv1i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv1i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <vscale x 1 x i16> @llvm.masked.gather.nxv1i16.nxv1p0i16(<vscale x 1 x i16*> %ptrs, i32 2, <vscale x 1 x i1> %m, <vscale x 1 x i16> %passthru)
@@ -295,14 +295,14 @@ define <vscale x 2 x i16> @mgather_nxv2i16(<vscale x 2 x i16*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv2i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv2i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <vscale x 2 x i16> @llvm.masked.gather.nxv2i16.nxv2p0i16(<vscale x 2 x i16*> %ptrs, i32 2, <vscale x 2 x i1> %m, <vscale x 2 x i16> %passthru)
@@ -313,7 +313,7 @@ define <vscale x 2 x i32> @mgather_nxv2i16_sextload_nxv2i32(<vscale x 2 x i16*>
; RV32-LABEL: mgather_nxv2i16_sextload_nxv2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e32, m1, ta, mu
; RV32-NEXT: vsext.vf2 v8, v9
; RV32-NEXT: ret
@@ -321,7 +321,7 @@ define <vscale x 2 x i32> @mgather_nxv2i16_sextload_nxv2i32(<vscale x 2 x i16*>
; RV64-LABEL: mgather_nxv2i16_sextload_nxv2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e32, m1, ta, mu
; RV64-NEXT: vsext.vf2 v8, v10
; RV64-NEXT: ret
@@ -334,7 +334,7 @@ define <vscale x 2 x i32> @mgather_nxv2i16_zextload_nxv2i32(<vscale x 2 x i16*>
; RV32-LABEL: mgather_nxv2i16_zextload_nxv2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e32, m1, ta, mu
; RV32-NEXT: vzext.vf2 v8, v9
; RV32-NEXT: ret
@@ -342,7 +342,7 @@ define <vscale x 2 x i32> @mgather_nxv2i16_zextload_nxv2i32(<vscale x 2 x i16*>
; RV64-LABEL: mgather_nxv2i16_zextload_nxv2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e32, m1, ta, mu
; RV64-NEXT: vzext.vf2 v8, v10
; RV64-NEXT: ret
@@ -355,7 +355,7 @@ define <vscale x 2 x i64> @mgather_nxv2i16_sextload_nxv2i64(<vscale x 2 x i16*>
; RV32-LABEL: mgather_nxv2i16_sextload_nxv2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV32-NEXT: vsext.vf4 v26, v9
; RV32-NEXT: vmv2r.v v8, v26
@@ -364,7 +364,7 @@ define <vscale x 2 x i64> @mgather_nxv2i16_sextload_nxv2i64(<vscale x 2 x i16*>
; RV64-LABEL: mgather_nxv2i16_sextload_nxv2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV64-NEXT: vsext.vf4 v8, v10
; RV64-NEXT: ret
@@ -377,7 +377,7 @@ define <vscale x 2 x i64> @mgather_nxv2i16_zextload_nxv2i64(<vscale x 2 x i16*>
; RV32-LABEL: mgather_nxv2i16_zextload_nxv2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV32-NEXT: vzext.vf4 v26, v9
; RV32-NEXT: vmv2r.v v8, v26
@@ -386,7 +386,7 @@ define <vscale x 2 x i64> @mgather_nxv2i16_zextload_nxv2i64(<vscale x 2 x i16*>
; RV64-LABEL: mgather_nxv2i16_zextload_nxv2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV64-NEXT: vzext.vf4 v8, v10
; RV64-NEXT: ret
@@ -401,14 +401,14 @@ define <vscale x 4 x i16> @mgather_nxv4i16(<vscale x 4 x i16*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv4i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv4i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v12
; RV64-NEXT: ret
%v = call <vscale x 4 x i16> @llvm.masked.gather.nxv4i16.nxv4p0i16(<vscale x 4 x i16*> %ptrs, i32 2, <vscale x 4 x i1> %m, <vscale x 4 x i16> %passthru)
@@ -419,14 +419,14 @@ define <vscale x 4 x i16> @mgather_truemask_nxv4i16(<vscale x 4 x i16*> %ptrs, <
; RV32-LABEL: mgather_truemask_nxv4i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, m1, ta, mu
-; RV32-NEXT: vloxei32.v v25, (zero), v8
+; RV32-NEXT: vluxei32.v v25, (zero), v8
; RV32-NEXT: vmv1r.v v8, v25
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_nxv4i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, m1, ta, mu
-; RV64-NEXT: vloxei64.v v25, (zero), v8
+; RV64-NEXT: vluxei64.v v25, (zero), v8
; RV64-NEXT: vmv1r.v v8, v25
; RV64-NEXT: ret
%mhead = insertelement <vscale x 4 x i1> undef, i1 1, i32 0
@@ -455,14 +455,14 @@ define <vscale x 8 x i16> @mgather_nxv8i16(<vscale x 8 x i16*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv8i16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv8i16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v16
; RV64-NEXT: ret
%v = call <vscale x 8 x i16> @llvm.masked.gather.nxv8i16.nxv8p0i16(<vscale x 8 x i16*> %ptrs, i32 2, <vscale x 8 x i1> %m, <vscale x 8 x i16> %passthru)
@@ -476,7 +476,7 @@ define <vscale x 8 x i16> @mgather_baseidx_nxv8i8_nxv8i16(i16* %base, <vscale x
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 1
; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -486,7 +486,7 @@ define <vscale x 8 x i16> @mgather_baseidx_nxv8i8_nxv8i16(i16* %base, <vscale x
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 1
; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i16, i16* %base, <vscale x 8 x i8> %idxs
@@ -501,7 +501,7 @@ define <vscale x 8 x i16> @mgather_baseidx_sext_nxv8i8_nxv8i16(i16* %base, <vsca
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 1
; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -511,7 +511,7 @@ define <vscale x 8 x i16> @mgather_baseidx_sext_nxv8i8_nxv8i16(i16* %base, <vsca
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 1
; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i8> %idxs to <vscale x 8 x i16>
@@ -527,7 +527,7 @@ define <vscale x 8 x i16> @mgather_baseidx_zext_nxv8i8_nxv8i16(i16* %base, <vsca
; RV32-NEXT: vzext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 1
; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -537,7 +537,7 @@ define <vscale x 8 x i16> @mgather_baseidx_zext_nxv8i8_nxv8i16(i16* %base, <vsca
; RV64-NEXT: vzext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 1
; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i8> %idxs to <vscale x 8 x i16>
@@ -553,7 +553,7 @@ define <vscale x 8 x i16> @mgather_baseidx_nxv8i16(i16* %base, <vscale x 8 x i16
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 1
; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -563,7 +563,7 @@ define <vscale x 8 x i16> @mgather_baseidx_nxv8i16(i16* %base, <vscale x 8 x i16
; RV64-NEXT: vsext.vf4 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 1
; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i16, i16* %base, <vscale x 8 x i16> %idxs
@@ -577,14 +577,14 @@ define <vscale x 1 x i32> @mgather_nxv1i32(<vscale x 1 x i32*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv1i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv1i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <vscale x 1 x i32> @llvm.masked.gather.nxv1i32.nxv1p0i32(<vscale x 1 x i32*> %ptrs, i32 4, <vscale x 1 x i1> %m, <vscale x 1 x i32> %passthru)
@@ -597,14 +597,14 @@ define <vscale x 2 x i32> @mgather_nxv2i32(<vscale x 2 x i32*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv2i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv2i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m1, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <vscale x 2 x i32> @llvm.masked.gather.nxv2i32.nxv2p0i32(<vscale x 2 x i32*> %ptrs, i32 4, <vscale x 2 x i1> %m, <vscale x 2 x i32> %passthru)
@@ -615,7 +615,7 @@ define <vscale x 2 x i64> @mgather_nxv2i32_sextload_nxv2i64(<vscale x 2 x i32*>
; RV32-LABEL: mgather_nxv2i32_sextload_nxv2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV32-NEXT: vsext.vf2 v26, v9
; RV32-NEXT: vmv2r.v v8, v26
@@ -624,7 +624,7 @@ define <vscale x 2 x i64> @mgather_nxv2i32_sextload_nxv2i64(<vscale x 2 x i32*>
; RV64-LABEL: mgather_nxv2i32_sextload_nxv2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m1, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV64-NEXT: vsext.vf2 v8, v10
; RV64-NEXT: ret
@@ -637,7 +637,7 @@ define <vscale x 2 x i64> @mgather_nxv2i32_zextload_nxv2i64(<vscale x 2 x i32*>
; RV32-LABEL: mgather_nxv2i32_zextload_nxv2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV32-NEXT: vzext.vf2 v26, v9
; RV32-NEXT: vmv2r.v v8, v26
@@ -646,7 +646,7 @@ define <vscale x 2 x i64> @mgather_nxv2i32_zextload_nxv2i64(<vscale x 2 x i32*>
; RV64-LABEL: mgather_nxv2i32_zextload_nxv2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m1, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m2, ta, mu
; RV64-NEXT: vzext.vf2 v8, v10
; RV64-NEXT: ret
@@ -661,14 +661,14 @@ define <vscale x 4 x i32> @mgather_nxv4i32(<vscale x 4 x i32*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv4i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv4i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v12
; RV64-NEXT: ret
%v = call <vscale x 4 x i32> @llvm.masked.gather.nxv4i32.nxv4p0i32(<vscale x 4 x i32*> %ptrs, i32 4, <vscale x 4 x i1> %m, <vscale x 4 x i32> %passthru)
@@ -679,13 +679,13 @@ define <vscale x 4 x i32> @mgather_truemask_nxv4i32(<vscale x 4 x i32*> %ptrs, <
; RV32-LABEL: mgather_truemask_nxv4i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m2, ta, mu
-; RV32-NEXT: vloxei32.v v8, (zero), v8
+; RV32-NEXT: vluxei32.v v8, (zero), v8
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_nxv4i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m2, ta, mu
-; RV64-NEXT: vloxei64.v v26, (zero), v8
+; RV64-NEXT: vluxei64.v v26, (zero), v8
; RV64-NEXT: vmv2r.v v8, v26
; RV64-NEXT: ret
%mhead = insertelement <vscale x 4 x i1> undef, i1 1, i32 0
@@ -714,14 +714,14 @@ define <vscale x 8 x i32> @mgather_nxv8i32(<vscale x 8 x i32*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv8i32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv8i32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t
; RV64-NEXT: vmv4r.v v8, v16
; RV64-NEXT: ret
%v = call <vscale x 8 x i32> @llvm.masked.gather.nxv8i32.nxv8p0i32(<vscale x 8 x i32*> %ptrs, i32 4, <vscale x 8 x i1> %m, <vscale x 8 x i32> %passthru)
@@ -735,7 +735,7 @@ define <vscale x 8 x i32> @mgather_baseidx_nxv8i8_nxv8i32(i32* %base, <vscale x
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -745,7 +745,7 @@ define <vscale x 8 x i32> @mgather_baseidx_nxv8i8_nxv8i32(i32* %base, <vscale x
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i32, i32* %base, <vscale x 8 x i8> %idxs
@@ -760,7 +760,7 @@ define <vscale x 8 x i32> @mgather_baseidx_sext_nxv8i8_nxv8i32(i32* %base, <vsca
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -770,7 +770,7 @@ define <vscale x 8 x i32> @mgather_baseidx_sext_nxv8i8_nxv8i32(i32* %base, <vsca
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i8> %idxs to <vscale x 8 x i32>
@@ -786,7 +786,7 @@ define <vscale x 8 x i32> @mgather_baseidx_zext_nxv8i8_nxv8i32(i32* %base, <vsca
; RV32-NEXT: vzext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -796,7 +796,7 @@ define <vscale x 8 x i32> @mgather_baseidx_zext_nxv8i8_nxv8i32(i32* %base, <vsca
; RV64-NEXT: vzext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i8> %idxs to <vscale x 8 x i32>
@@ -812,7 +812,7 @@ define <vscale x 8 x i32> @mgather_baseidx_nxv8i16_nxv8i32(i32* %base, <vscale x
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -822,7 +822,7 @@ define <vscale x 8 x i32> @mgather_baseidx_nxv8i16_nxv8i32(i32* %base, <vscale x
; RV64-NEXT: vsext.vf4 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i32, i32* %base, <vscale x 8 x i16> %idxs
@@ -837,7 +837,7 @@ define <vscale x 8 x i32> @mgather_baseidx_sext_nxv8i16_nxv8i32(i32* %base, <vsc
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -847,7 +847,7 @@ define <vscale x 8 x i32> @mgather_baseidx_sext_nxv8i16_nxv8i32(i32* %base, <vsc
; RV64-NEXT: vsext.vf4 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i16> %idxs to <vscale x 8 x i32>
@@ -863,7 +863,7 @@ define <vscale x 8 x i32> @mgather_baseidx_zext_nxv8i16_nxv8i32(i32* %base, <vsc
; RV32-NEXT: vzext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -873,7 +873,7 @@ define <vscale x 8 x i32> @mgather_baseidx_zext_nxv8i16_nxv8i32(i32* %base, <vsc
; RV64-NEXT: vzext.vf4 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i16> %idxs to <vscale x 8 x i32>
@@ -888,7 +888,7 @@ define <vscale x 8 x i32> @mgather_baseidx_nxv8i32(i32* %base, <vscale x 8 x i32
; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu
; RV32-NEXT: vsll.vi v28, v8, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -898,7 +898,7 @@ define <vscale x 8 x i32> @mgather_baseidx_nxv8i32(i32* %base, <vscale x 8 x i32
; RV64-NEXT: vsext.vf2 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i32, i32* %base, <vscale x 8 x i32> %idxs
@@ -912,14 +912,14 @@ define <vscale x 1 x i64> @mgather_nxv1i64(<vscale x 1 x i64*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv1i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv1i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <vscale x 1 x i64> @llvm.masked.gather.nxv1i64.nxv1p0i64(<vscale x 1 x i64*> %ptrs, i32 8, <vscale x 1 x i1> %m, <vscale x 1 x i64> %passthru)
@@ -932,14 +932,14 @@ define <vscale x 2 x i64> @mgather_nxv2i64(<vscale x 2 x i64*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv2i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv2i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%v = call <vscale x 2 x i64> @llvm.masked.gather.nxv2i64.nxv2p0i64(<vscale x 2 x i64*> %ptrs, i32 8, <vscale x 2 x i1> %m, <vscale x 2 x i64> %passthru)
@@ -952,14 +952,14 @@ define <vscale x 4 x i64> @mgather_nxv4i64(<vscale x 4 x i64*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv4i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv4i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%v = call <vscale x 4 x i64> @llvm.masked.gather.nxv4i64.nxv4p0i64(<vscale x 4 x i64*> %ptrs, i32 8, <vscale x 4 x i1> %m, <vscale x 4 x i64> %passthru)
@@ -970,14 +970,14 @@ define <vscale x 4 x i64> @mgather_truemask_nxv4i64(<vscale x 4 x i64*> %ptrs, <
; RV32-LABEL: mgather_truemask_nxv4i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m4, ta, mu
-; RV32-NEXT: vloxei32.v v28, (zero), v8
+; RV32-NEXT: vluxei32.v v28, (zero), v8
; RV32-NEXT: vmv4r.v v8, v28
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_nxv4i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m4, ta, mu
-; RV64-NEXT: vloxei64.v v8, (zero), v8
+; RV64-NEXT: vluxei64.v v8, (zero), v8
; RV64-NEXT: ret
%mhead = insertelement <vscale x 4 x i1> undef, i1 1, i32 0
%mtrue = shufflevector <vscale x 4 x i1> %mhead, <vscale x 4 x i1> undef, <vscale x 4 x i32> zeroinitializer
@@ -1005,14 +1005,14 @@ define <vscale x 8 x i64> @mgather_nxv8i64(<vscale x 8 x i64*> %ptrs, <vscale x
; RV32-LABEL: mgather_nxv8i64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v16, (zero), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv8i64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%v = call <vscale x 8 x i64> @llvm.masked.gather.nxv8i64.nxv8p0i64(<vscale x 8 x i64*> %ptrs, i32 8, <vscale x 8 x i1> %m, <vscale x 8 x i64> %passthru)
@@ -1026,7 +1026,7 @@ define <vscale x 8 x i64> @mgather_baseidx_nxv8i8_nxv8i64(i64* %base, <vscale x
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1036,7 +1036,7 @@ define <vscale x 8 x i64> @mgather_baseidx_nxv8i8_nxv8i64(i64* %base, <vscale x
; RV64-NEXT: vsext.vf8 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i64, i64* %base, <vscale x 8 x i8> %idxs
@@ -1051,7 +1051,7 @@ define <vscale x 8 x i64> @mgather_baseidx_sext_nxv8i8_nxv8i64(i64* %base, <vsca
; RV32-NEXT: vsext.vf8 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1061,7 +1061,7 @@ define <vscale x 8 x i64> @mgather_baseidx_sext_nxv8i8_nxv8i64(i64* %base, <vsca
; RV64-NEXT: vsext.vf8 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i8> %idxs to <vscale x 8 x i64>
@@ -1077,7 +1077,7 @@ define <vscale x 8 x i64> @mgather_baseidx_zext_nxv8i8_nxv8i64(i64* %base, <vsca
; RV32-NEXT: vzext.vf8 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1087,7 +1087,7 @@ define <vscale x 8 x i64> @mgather_baseidx_zext_nxv8i8_nxv8i64(i64* %base, <vsca
; RV64-NEXT: vzext.vf8 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i8> %idxs to <vscale x 8 x i64>
@@ -1103,7 +1103,7 @@ define <vscale x 8 x i64> @mgather_baseidx_nxv8i16_nxv8i64(i64* %base, <vscale x
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1113,7 +1113,7 @@ define <vscale x 8 x i64> @mgather_baseidx_nxv8i16_nxv8i64(i64* %base, <vscale x
; RV64-NEXT: vsext.vf4 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i64, i64* %base, <vscale x 8 x i16> %idxs
@@ -1128,7 +1128,7 @@ define <vscale x 8 x i64> @mgather_baseidx_sext_nxv8i16_nxv8i64(i64* %base, <vsc
; RV32-NEXT: vsext.vf4 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1138,7 +1138,7 @@ define <vscale x 8 x i64> @mgather_baseidx_sext_nxv8i16_nxv8i64(i64* %base, <vsc
; RV64-NEXT: vsext.vf4 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i16> %idxs to <vscale x 8 x i64>
@@ -1154,7 +1154,7 @@ define <vscale x 8 x i64> @mgather_baseidx_zext_nxv8i16_nxv8i64(i64* %base, <vsc
; RV32-NEXT: vzext.vf4 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1164,7 +1164,7 @@ define <vscale x 8 x i64> @mgather_baseidx_zext_nxv8i16_nxv8i64(i64* %base, <vsc
; RV64-NEXT: vzext.vf4 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i16> %idxs to <vscale x 8 x i64>
@@ -1179,7 +1179,7 @@ define <vscale x 8 x i64> @mgather_baseidx_nxv8i32_nxv8i64(i64* %base, <vscale x
; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu
; RV32-NEXT: vsll.vi v28, v8, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1189,7 +1189,7 @@ define <vscale x 8 x i64> @mgather_baseidx_nxv8i32_nxv8i64(i64* %base, <vscale x
; RV64-NEXT: vsext.vf2 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i64, i64* %base, <vscale x 8 x i32> %idxs
@@ -1204,7 +1204,7 @@ define <vscale x 8 x i64> @mgather_baseidx_sext_nxv8i32_nxv8i64(i64* %base, <vsc
; RV32-NEXT: vsext.vf2 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1214,7 +1214,7 @@ define <vscale x 8 x i64> @mgather_baseidx_sext_nxv8i32_nxv8i64(i64* %base, <vsc
; RV64-NEXT: vsext.vf2 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i32> %idxs to <vscale x 8 x i64>
@@ -1230,7 +1230,7 @@ define <vscale x 8 x i64> @mgather_baseidx_zext_nxv8i32_nxv8i64(i64* %base, <vsc
; RV32-NEXT: vzext.vf2 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1240,7 +1240,7 @@ define <vscale x 8 x i64> @mgather_baseidx_zext_nxv8i32_nxv8i64(i64* %base, <vsc
; RV64-NEXT: vzext.vf2 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i32> %idxs to <vscale x 8 x i64>
@@ -1255,7 +1255,7 @@ define <vscale x 8 x i64> @mgather_baseidx_nxv8i64(i64* %base, <vscale x 8 x i64
; RV32-NEXT: vsetvli a1, zero, e64, m8, ta, mu
; RV32-NEXT: vsll.vi v8, v8, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1264,7 +1264,7 @@ define <vscale x 8 x i64> @mgather_baseidx_nxv8i64(i64* %base, <vscale x 8 x i64
; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu
; RV64-NEXT: vsll.vi v8, v8, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i64, i64* %base, <vscale x 8 x i64> %idxs
@@ -1282,13 +1282,13 @@ define void @mgather_nxv16i64(<vscale x 8 x i64*> %ptrs0, <vscale x 8 x i64*> %p
; RV32: # %bb.0:
; RV32-NEXT: vl8re64.v v24, (a0)
; RV32-NEXT: vsetvli a0, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v16, (zero), v8, v0.t
; RV32-NEXT: csrr a0, vlenb
; RV32-NEXT: srli a2, a0, 3
; RV32-NEXT: vsetvli a3, zero, e8, mf4, ta, mu
; RV32-NEXT: vslidedown.vx v0, v0, a2
; RV32-NEXT: vsetvli a2, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v24, (zero), v12, v0.t
+; RV32-NEXT: vluxei32.v v24, (zero), v12, v0.t
; RV32-NEXT: slli a0, a0, 3
; RV32-NEXT: add a0, a1, a0
; RV32-NEXT: vs8r.v v24, (a0)
@@ -1308,7 +1308,7 @@ define void @mgather_nxv16i64(<vscale x 8 x i64*> %ptrs0, <vscale x 8 x i64*> %p
; RV64-NEXT: vmv8r.v v16, v8
; RV64-NEXT: vl8re64.v v8, (a1)
; RV64-NEXT: vsetvli a0, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v24, (zero), v16, v0.t
+; RV64-NEXT: vluxei64.v v24, (zero), v16, v0.t
; RV64-NEXT: csrr a0, vlenb
; RV64-NEXT: srli a1, a0, 3
; RV64-NEXT: vsetvli a3, zero, e8, mf4, ta, mu
@@ -1316,7 +1316,7 @@ define void @mgather_nxv16i64(<vscale x 8 x i64*> %ptrs0, <vscale x 8 x i64*> %p
; RV64-NEXT: vsetvli a1, zero, e64, m8, tu, mu
; RV64-NEXT: addi a1, sp, 16
; RV64-NEXT: vl8re8.v v16, (a1) # Unknown-size Folded Reload
-; RV64-NEXT: vloxei64.v v8, (zero), v16, v0.t
+; RV64-NEXT: vluxei64.v v8, (zero), v16, v0.t
; RV64-NEXT: slli a0, a0, 3
; RV64-NEXT: add a0, a2, a0
; RV64-NEXT: vs8r.v v8, (a0)
@@ -1344,14 +1344,14 @@ define <vscale x 1 x half> @mgather_nxv1f16(<vscale x 1 x half*> %ptrs, <vscale
; RV32-LABEL: mgather_nxv1f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, mf4, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv1f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, mf4, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <vscale x 1 x half> @llvm.masked.gather.nxv1f16.nxv1p0f16(<vscale x 1 x half*> %ptrs, i32 2, <vscale x 1 x i1> %m, <vscale x 1 x half> %passthru)
@@ -1364,14 +1364,14 @@ define <vscale x 2 x half> @mgather_nxv2f16(<vscale x 2 x half*> %ptrs, <vscale
; RV32-LABEL: mgather_nxv2f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv2f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <vscale x 2 x half> @llvm.masked.gather.nxv2f16.nxv2p0f16(<vscale x 2 x half*> %ptrs, i32 2, <vscale x 2 x i1> %m, <vscale x 2 x half> %passthru)
@@ -1384,14 +1384,14 @@ define <vscale x 4 x half> @mgather_nxv4f16(<vscale x 4 x half*> %ptrs, <vscale
; RV32-LABEL: mgather_nxv4f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, m1, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv4f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, m1, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v12
; RV64-NEXT: ret
%v = call <vscale x 4 x half> @llvm.masked.gather.nxv4f16.nxv4p0f16(<vscale x 4 x half*> %ptrs, i32 2, <vscale x 4 x i1> %m, <vscale x 4 x half> %passthru)
@@ -1402,14 +1402,14 @@ define <vscale x 4 x half> @mgather_truemask_nxv4f16(<vscale x 4 x half*> %ptrs,
; RV32-LABEL: mgather_truemask_nxv4f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, m1, ta, mu
-; RV32-NEXT: vloxei32.v v25, (zero), v8
+; RV32-NEXT: vluxei32.v v25, (zero), v8
; RV32-NEXT: vmv1r.v v8, v25
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_nxv4f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, m1, ta, mu
-; RV64-NEXT: vloxei64.v v25, (zero), v8
+; RV64-NEXT: vluxei64.v v25, (zero), v8
; RV64-NEXT: vmv1r.v v8, v25
; RV64-NEXT: ret
%mhead = insertelement <vscale x 4 x i1> undef, i1 1, i32 0
@@ -1438,14 +1438,14 @@ define <vscale x 8 x half> @mgather_nxv8f16(<vscale x 8 x half*> %ptrs, <vscale
; RV32-LABEL: mgather_nxv8f16:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv8f16:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v16
; RV64-NEXT: ret
%v = call <vscale x 8 x half> @llvm.masked.gather.nxv8f16.nxv8p0f16(<vscale x 8 x half*> %ptrs, i32 2, <vscale x 8 x i1> %m, <vscale x 8 x half> %passthru)
@@ -1459,7 +1459,7 @@ define <vscale x 8 x half> @mgather_baseidx_nxv8i8_nxv8f16(half* %base, <vscale
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 1
; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1469,7 +1469,7 @@ define <vscale x 8 x half> @mgather_baseidx_nxv8i8_nxv8f16(half* %base, <vscale
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 1
; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds half, half* %base, <vscale x 8 x i8> %idxs
@@ -1484,7 +1484,7 @@ define <vscale x 8 x half> @mgather_baseidx_sext_nxv8i8_nxv8f16(half* %base, <vs
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 1
; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1494,7 +1494,7 @@ define <vscale x 8 x half> @mgather_baseidx_sext_nxv8i8_nxv8f16(half* %base, <vs
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 1
; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i8> %idxs to <vscale x 8 x i16>
@@ -1510,7 +1510,7 @@ define <vscale x 8 x half> @mgather_baseidx_zext_nxv8i8_nxv8f16(half* %base, <vs
; RV32-NEXT: vzext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 1
; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1520,7 +1520,7 @@ define <vscale x 8 x half> @mgather_baseidx_zext_nxv8i8_nxv8f16(half* %base, <vs
; RV64-NEXT: vzext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 1
; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i8> %idxs to <vscale x 8 x i16>
@@ -1536,7 +1536,7 @@ define <vscale x 8 x half> @mgather_baseidx_nxv8f16(half* %base, <vscale x 8 x i
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 1
; RV32-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v28, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -1546,7 +1546,7 @@ define <vscale x 8 x half> @mgather_baseidx_nxv8f16(half* %base, <vscale x 8 x i
; RV64-NEXT: vsext.vf4 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 1
; RV64-NEXT: vsetvli zero, zero, e16, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds half, half* %base, <vscale x 8 x i16> %idxs
@@ -1560,14 +1560,14 @@ define <vscale x 1 x float> @mgather_nxv1f32(<vscale x 1 x float*> %ptrs, <vscal
; RV32-LABEL: mgather_nxv1f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, mf2, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv1f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, mf2, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <vscale x 1 x float> @llvm.masked.gather.nxv1f32.nxv1p0f32(<vscale x 1 x float*> %ptrs, i32 4, <vscale x 1 x i1> %m, <vscale x 1 x float> %passthru)
@@ -1580,14 +1580,14 @@ define <vscale x 2 x float> @mgather_nxv2f32(<vscale x 2 x float*> %ptrs, <vscal
; RV32-LABEL: mgather_nxv2f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv2f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m1, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v10
; RV64-NEXT: ret
%v = call <vscale x 2 x float> @llvm.masked.gather.nxv2f32.nxv2p0f32(<vscale x 2 x float*> %ptrs, i32 4, <vscale x 2 x i1> %m, <vscale x 2 x float> %passthru)
@@ -1600,14 +1600,14 @@ define <vscale x 4 x float> @mgather_nxv4f32(<vscale x 4 x float*> %ptrs, <vscal
; RV32-LABEL: mgather_nxv4f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv4f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m2, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v12
; RV64-NEXT: ret
%v = call <vscale x 4 x float> @llvm.masked.gather.nxv4f32.nxv4p0f32(<vscale x 4 x float*> %ptrs, i32 4, <vscale x 4 x i1> %m, <vscale x 4 x float> %passthru)
@@ -1618,13 +1618,13 @@ define <vscale x 4 x float> @mgather_truemask_nxv4f32(<vscale x 4 x float*> %ptr
; RV32-LABEL: mgather_truemask_nxv4f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m2, ta, mu
-; RV32-NEXT: vloxei32.v v8, (zero), v8
+; RV32-NEXT: vluxei32.v v8, (zero), v8
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_nxv4f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m2, ta, mu
-; RV64-NEXT: vloxei64.v v26, (zero), v8
+; RV64-NEXT: vluxei64.v v26, (zero), v8
; RV64-NEXT: vmv2r.v v8, v26
; RV64-NEXT: ret
%mhead = insertelement <vscale x 4 x i1> undef, i1 1, i32 0
@@ -1653,14 +1653,14 @@ define <vscale x 8 x float> @mgather_nxv8f32(<vscale x 8 x float*> %ptrs, <vscal
; RV32-LABEL: mgather_nxv8f32:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv8f32:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t
; RV64-NEXT: vmv4r.v v8, v16
; RV64-NEXT: ret
%v = call <vscale x 8 x float> @llvm.masked.gather.nxv8f32.nxv8p0f32(<vscale x 8 x float*> %ptrs, i32 4, <vscale x 8 x i1> %m, <vscale x 8 x float> %passthru)
@@ -1674,7 +1674,7 @@ define <vscale x 8 x float> @mgather_baseidx_nxv8i8_nxv8f32(float* %base, <vscal
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1684,7 +1684,7 @@ define <vscale x 8 x float> @mgather_baseidx_nxv8i8_nxv8f32(float* %base, <vscal
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds float, float* %base, <vscale x 8 x i8> %idxs
@@ -1699,7 +1699,7 @@ define <vscale x 8 x float> @mgather_baseidx_sext_nxv8i8_nxv8f32(float* %base, <
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1709,7 +1709,7 @@ define <vscale x 8 x float> @mgather_baseidx_sext_nxv8i8_nxv8f32(float* %base, <
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i8> %idxs to <vscale x 8 x i32>
@@ -1725,7 +1725,7 @@ define <vscale x 8 x float> @mgather_baseidx_zext_nxv8i8_nxv8f32(float* %base, <
; RV32-NEXT: vzext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1735,7 +1735,7 @@ define <vscale x 8 x float> @mgather_baseidx_zext_nxv8i8_nxv8f32(float* %base, <
; RV64-NEXT: vzext.vf8 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i8> %idxs to <vscale x 8 x i32>
@@ -1751,7 +1751,7 @@ define <vscale x 8 x float> @mgather_baseidx_nxv8i16_nxv8f32(float* %base, <vsca
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1761,7 +1761,7 @@ define <vscale x 8 x float> @mgather_baseidx_nxv8i16_nxv8f32(float* %base, <vsca
; RV64-NEXT: vsext.vf4 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds float, float* %base, <vscale x 8 x i16> %idxs
@@ -1776,7 +1776,7 @@ define <vscale x 8 x float> @mgather_baseidx_sext_nxv8i16_nxv8f32(float* %base,
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1786,7 +1786,7 @@ define <vscale x 8 x float> @mgather_baseidx_sext_nxv8i16_nxv8f32(float* %base,
; RV64-NEXT: vsext.vf4 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i16> %idxs to <vscale x 8 x i32>
@@ -1802,7 +1802,7 @@ define <vscale x 8 x float> @mgather_baseidx_zext_nxv8i16_nxv8f32(float* %base,
; RV32-NEXT: vzext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1812,7 +1812,7 @@ define <vscale x 8 x float> @mgather_baseidx_zext_nxv8i16_nxv8f32(float* %base,
; RV64-NEXT: vzext.vf4 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i16> %idxs to <vscale x 8 x i32>
@@ -1827,7 +1827,7 @@ define <vscale x 8 x float> @mgather_baseidx_nxv8f32(float* %base, <vscale x 8 x
; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu
; RV32-NEXT: vsll.vi v28, v8, 2
; RV32-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v28, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -1837,7 +1837,7 @@ define <vscale x 8 x float> @mgather_baseidx_nxv8f32(float* %base, <vscale x 8 x
; RV64-NEXT: vsext.vf2 v16, v8
; RV64-NEXT: vsll.vi v16, v16, 2
; RV64-NEXT: vsetvli zero, zero, e32, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds float, float* %base, <vscale x 8 x i32> %idxs
@@ -1851,14 +1851,14 @@ define <vscale x 1 x double> @mgather_nxv1f64(<vscale x 1 x double*> %ptrs, <vsc
; RV32-LABEL: mgather_nxv1f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m1, tu, mu
-; RV32-NEXT: vloxei32.v v9, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v9, (zero), v8, v0.t
; RV32-NEXT: vmv1r.v v8, v9
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv1f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m1, tu, mu
-; RV64-NEXT: vloxei64.v v9, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v9, (zero), v8, v0.t
; RV64-NEXT: vmv1r.v v8, v9
; RV64-NEXT: ret
%v = call <vscale x 1 x double> @llvm.masked.gather.nxv1f64.nxv1p0f64(<vscale x 1 x double*> %ptrs, i32 8, <vscale x 1 x i1> %m, <vscale x 1 x double> %passthru)
@@ -1871,14 +1871,14 @@ define <vscale x 2 x double> @mgather_nxv2f64(<vscale x 2 x double*> %ptrs, <vsc
; RV32-LABEL: mgather_nxv2f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v10, (zero), v8, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv2f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m2, tu, mu
-; RV64-NEXT: vloxei64.v v10, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v10, (zero), v8, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%v = call <vscale x 2 x double> @llvm.masked.gather.nxv2f64.nxv2p0f64(<vscale x 2 x double*> %ptrs, i32 8, <vscale x 2 x i1> %m, <vscale x 2 x double> %passthru)
@@ -1891,14 +1891,14 @@ define <vscale x 4 x double> @mgather_nxv4f64(<vscale x 4 x double*> %ptrs, <vsc
; RV32-LABEL: mgather_nxv4f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m4, tu, mu
-; RV32-NEXT: vloxei32.v v12, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v12, (zero), v8, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv4f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m4, tu, mu
-; RV64-NEXT: vloxei64.v v12, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v12, (zero), v8, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%v = call <vscale x 4 x double> @llvm.masked.gather.nxv4f64.nxv4p0f64(<vscale x 4 x double*> %ptrs, i32 8, <vscale x 4 x i1> %m, <vscale x 4 x double> %passthru)
@@ -1909,14 +1909,14 @@ define <vscale x 4 x double> @mgather_truemask_nxv4f64(<vscale x 4 x double*> %p
; RV32-LABEL: mgather_truemask_nxv4f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m4, ta, mu
-; RV32-NEXT: vloxei32.v v28, (zero), v8
+; RV32-NEXT: vluxei32.v v28, (zero), v8
; RV32-NEXT: vmv4r.v v8, v28
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_truemask_nxv4f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m4, ta, mu
-; RV64-NEXT: vloxei64.v v8, (zero), v8
+; RV64-NEXT: vluxei64.v v8, (zero), v8
; RV64-NEXT: ret
%mhead = insertelement <vscale x 4 x i1> undef, i1 1, i32 0
%mtrue = shufflevector <vscale x 4 x i1> %mhead, <vscale x 4 x i1> undef, <vscale x 4 x i32> zeroinitializer
@@ -1944,14 +1944,14 @@ define <vscale x 8 x double> @mgather_nxv8f64(<vscale x 8 x double*> %ptrs, <vsc
; RV32-LABEL: mgather_nxv8f64:
; RV32: # %bb.0:
; RV32-NEXT: vsetvli a0, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (zero), v8, v0.t
+; RV32-NEXT: vluxei32.v v16, (zero), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
; RV64-LABEL: mgather_nxv8f64:
; RV64: # %bb.0:
; RV64-NEXT: vsetvli a0, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (zero), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (zero), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%v = call <vscale x 8 x double> @llvm.masked.gather.nxv8f64.nxv8p0f64(<vscale x 8 x double*> %ptrs, i32 8, <vscale x 8 x i1> %m, <vscale x 8 x double> %passthru)
@@ -1965,7 +1965,7 @@ define <vscale x 8 x double> @mgather_baseidx_nxv8i8_nxv8f64(double* %base, <vsc
; RV32-NEXT: vsext.vf4 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -1975,7 +1975,7 @@ define <vscale x 8 x double> @mgather_baseidx_nxv8i8_nxv8f64(double* %base, <vsc
; RV64-NEXT: vsext.vf8 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%ptrs = getelementptr inbounds double, double* %base, <vscale x 8 x i8> %idxs
@@ -1990,7 +1990,7 @@ define <vscale x 8 x double> @mgather_baseidx_sext_nxv8i8_nxv8f64(double* %base,
; RV32-NEXT: vsext.vf8 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2000,7 +2000,7 @@ define <vscale x 8 x double> @mgather_baseidx_sext_nxv8i8_nxv8f64(double* %base,
; RV64-NEXT: vsext.vf8 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i8> %idxs to <vscale x 8 x i64>
@@ -2016,7 +2016,7 @@ define <vscale x 8 x double> @mgather_baseidx_zext_nxv8i8_nxv8f64(double* %base,
; RV32-NEXT: vzext.vf8 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2026,7 +2026,7 @@ define <vscale x 8 x double> @mgather_baseidx_zext_nxv8i8_nxv8f64(double* %base,
; RV64-NEXT: vzext.vf8 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i8> %idxs to <vscale x 8 x i64>
@@ -2042,7 +2042,7 @@ define <vscale x 8 x double> @mgather_baseidx_nxv8i16_nxv8f64(double* %base, <vs
; RV32-NEXT: vsext.vf2 v28, v8
; RV32-NEXT: vsll.vi v28, v28, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2052,7 +2052,7 @@ define <vscale x 8 x double> @mgather_baseidx_nxv8i16_nxv8f64(double* %base, <vs
; RV64-NEXT: vsext.vf4 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%ptrs = getelementptr inbounds double, double* %base, <vscale x 8 x i16> %idxs
@@ -2067,7 +2067,7 @@ define <vscale x 8 x double> @mgather_baseidx_sext_nxv8i16_nxv8f64(double* %base
; RV32-NEXT: vsext.vf4 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2077,7 +2077,7 @@ define <vscale x 8 x double> @mgather_baseidx_sext_nxv8i16_nxv8f64(double* %base
; RV64-NEXT: vsext.vf4 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i16> %idxs to <vscale x 8 x i64>
@@ -2093,7 +2093,7 @@ define <vscale x 8 x double> @mgather_baseidx_zext_nxv8i16_nxv8f64(double* %base
; RV32-NEXT: vzext.vf4 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2103,7 +2103,7 @@ define <vscale x 8 x double> @mgather_baseidx_zext_nxv8i16_nxv8f64(double* %base
; RV64-NEXT: vzext.vf4 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i16> %idxs to <vscale x 8 x i64>
@@ -2118,7 +2118,7 @@ define <vscale x 8 x double> @mgather_baseidx_nxv8i32_nxv8f64(double* %base, <vs
; RV32-NEXT: vsetvli a1, zero, e32, m4, ta, mu
; RV32-NEXT: vsll.vi v28, v8, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei32.v v16, (a0), v28, v0.t
+; RV32-NEXT: vluxei32.v v16, (a0), v28, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2128,7 +2128,7 @@ define <vscale x 8 x double> @mgather_baseidx_nxv8i32_nxv8f64(double* %base, <vs
; RV64-NEXT: vsext.vf2 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%ptrs = getelementptr inbounds double, double* %base, <vscale x 8 x i32> %idxs
@@ -2143,7 +2143,7 @@ define <vscale x 8 x double> @mgather_baseidx_sext_nxv8i32_nxv8f64(double* %base
; RV32-NEXT: vsext.vf2 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2153,7 +2153,7 @@ define <vscale x 8 x double> @mgather_baseidx_sext_nxv8i32_nxv8f64(double* %base
; RV64-NEXT: vsext.vf2 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = sext <vscale x 8 x i32> %idxs to <vscale x 8 x i64>
@@ -2169,7 +2169,7 @@ define <vscale x 8 x double> @mgather_baseidx_zext_nxv8i32_nxv8f64(double* %base
; RV32-NEXT: vzext.vf2 v24, v8
; RV32-NEXT: vsll.vi v8, v24, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2179,7 +2179,7 @@ define <vscale x 8 x double> @mgather_baseidx_zext_nxv8i32_nxv8f64(double* %base
; RV64-NEXT: vzext.vf2 v24, v8
; RV64-NEXT: vsll.vi v8, v24, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%eidxs = zext <vscale x 8 x i32> %idxs to <vscale x 8 x i64>
@@ -2194,7 +2194,7 @@ define <vscale x 8 x double> @mgather_baseidx_nxv8f64(double* %base, <vscale x 8
; RV32-NEXT: vsetvli a1, zero, e64, m8, ta, mu
; RV32-NEXT: vsll.vi v8, v8, 3
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV32-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV32-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV32-NEXT: vmv8r.v v8, v16
; RV32-NEXT: ret
;
@@ -2203,7 +2203,7 @@ define <vscale x 8 x double> @mgather_baseidx_nxv8f64(double* %base, <vscale x 8
; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu
; RV64-NEXT: vsll.vi v8, v8, 3
; RV64-NEXT: vsetvli zero, zero, e64, m8, tu, mu
-; RV64-NEXT: vloxei64.v v16, (a0), v8, v0.t
+; RV64-NEXT: vluxei64.v v16, (a0), v8, v0.t
; RV64-NEXT: vmv8r.v v8, v16
; RV64-NEXT: ret
%ptrs = getelementptr inbounds double, double* %base, <vscale x 8 x i64> %idxs
@@ -2219,7 +2219,7 @@ define <vscale x 16 x i8> @mgather_baseidx_nxv16i8(i8* %base, <vscale x 16 x i8>
; RV32-NEXT: vsetvli a1, zero, e32, m8, ta, mu
; RV32-NEXT: vsext.vf4 v16, v8
; RV32-NEXT: vsetvli zero, zero, e8, m2, tu, mu
-; RV32-NEXT: vloxei32.v v10, (a0), v16, v0.t
+; RV32-NEXT: vluxei32.v v10, (a0), v16, v0.t
; RV32-NEXT: vmv2r.v v8, v10
; RV32-NEXT: ret
;
@@ -2228,7 +2228,7 @@ define <vscale x 16 x i8> @mgather_baseidx_nxv16i8(i8* %base, <vscale x 16 x i8>
; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
-; RV64-NEXT: vloxei64.v v10, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v10, (a0), v16, v0.t
; RV64-NEXT: csrr a1, vlenb
; RV64-NEXT: srli a1, a1, 3
; RV64-NEXT: vsetvli a2, zero, e8, mf4, ta, mu
@@ -2236,7 +2236,7 @@ define <vscale x 16 x i8> @mgather_baseidx_nxv16i8(i8* %base, <vscale x 16 x i8>
; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v9
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
-; RV64-NEXT: vloxei64.v v11, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v11, (a0), v16, v0.t
; RV64-NEXT: vmv2r.v v8, v10
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i8, i8* %base, <vscale x 16 x i8> %idxs
@@ -2252,7 +2252,7 @@ define <vscale x 32 x i8> @mgather_baseidx_nxv32i8(i8* %base, <vscale x 32 x i8>
; RV32-NEXT: vsetvli a1, zero, e32, m8, ta, mu
; RV32-NEXT: vsext.vf4 v16, v8
; RV32-NEXT: vsetvli zero, zero, e8, m2, tu, mu
-; RV32-NEXT: vloxei32.v v12, (a0), v16, v0.t
+; RV32-NEXT: vluxei32.v v12, (a0), v16, v0.t
; RV32-NEXT: csrr a1, vlenb
; RV32-NEXT: srli a1, a1, 2
; RV32-NEXT: vsetvli a2, zero, e8, mf2, ta, mu
@@ -2260,7 +2260,7 @@ define <vscale x 32 x i8> @mgather_baseidx_nxv32i8(i8* %base, <vscale x 32 x i8>
; RV32-NEXT: vsetvli a1, zero, e32, m8, ta, mu
; RV32-NEXT: vsext.vf4 v16, v10
; RV32-NEXT: vsetvli zero, zero, e8, m2, tu, mu
-; RV32-NEXT: vloxei32.v v14, (a0), v16, v0.t
+; RV32-NEXT: vluxei32.v v14, (a0), v16, v0.t
; RV32-NEXT: vmv4r.v v8, v12
; RV32-NEXT: ret
;
@@ -2277,23 +2277,23 @@ define <vscale x 32 x i8> @mgather_baseidx_nxv32i8(i8* %base, <vscale x 32 x i8>
; RV64-NEXT: vsetvli a2, zero, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v11
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
-; RV64-NEXT: vloxei64.v v15, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v15, (a0), v16, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v10
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
; RV64-NEXT: vmv1r.v v0, v26
-; RV64-NEXT: vloxei64.v v14, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v14, (a0), v16, v0.t
; RV64-NEXT: vsetvli zero, zero, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v8
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
; RV64-NEXT: vmv1r.v v0, v25
-; RV64-NEXT: vloxei64.v v12, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v12, (a0), v16, v0.t
; RV64-NEXT: vsetvli a2, zero, e8, mf4, ta, mu
; RV64-NEXT: vslidedown.vx v0, v25, a1
; RV64-NEXT: vsetvli a1, zero, e64, m8, ta, mu
; RV64-NEXT: vsext.vf8 v16, v9
; RV64-NEXT: vsetvli zero, zero, e8, m1, tu, mu
-; RV64-NEXT: vloxei64.v v13, (a0), v16, v0.t
+; RV64-NEXT: vluxei64.v v13, (a0), v16, v0.t
; RV64-NEXT: vmv4r.v v8, v12
; RV64-NEXT: ret
%ptrs = getelementptr inbounds i8, i8* %base, <vscale x 32 x i8> %idxs
More information about the llvm-commits
mailing list