[clang] [CIR][X86] Add support for cmp builtins (PR #174318)
Zhihui Yang via cfe-commits
cfe-commits at lists.llvm.org
Tue Jan 20 05:57:20 PST 2026
https://github.com/YGGkk updated https://github.com/llvm/llvm-project/pull/174318
>From 36fc6d1f4d000fbf5b798ad2664ae15049a2e8c1 Mon Sep 17 00:00:00 2001
From: Zhihui Yang <youngwisdm at gmail.com>
Date: Fri, 16 Jan 2026 06:20:15 -0800
Subject: [PATCH 1/4] [CIR][X86] Add support for cmp builtins
---
clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp | 30 +-
.../CIR/CodeGenBuiltins/X86/cmp-builtins.c | 709 ++++++++++++++++++
2 files changed, 727 insertions(+), 12 deletions(-)
create mode 100644 clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
diff --git a/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp b/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
index 497462a465145..e7f6a26a6a200 100644
--- a/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
+++ b/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
@@ -293,20 +293,22 @@ static mlir::Value emitX86MaskedCompareResult(CIRGenBuilderTy &builder,
// TODO: The cgf parameter should be removed when all the NYI cases are
// implemented.
static std::optional<mlir::Value>
-emitX86MaskedCompare(CIRGenFunction &cgf, CIRGenBuilderTy &builder, unsigned cc,
+emitX86MaskedCompare(CIRGenBuilderTy &builder, unsigned cc,
bool isSigned, ArrayRef<mlir::Value> ops,
mlir::Location loc) {
assert((ops.size() == 2 || ops.size() == 4) &&
"Unexpected number of arguments");
unsigned numElts = cast<cir::VectorType>(ops[0].getType()).getSize();
mlir::Value cmp;
-
+ cir::VectorType ty = cast<cir::VectorType>(ops[0].getType());
+ cir::IntType elementTy = cast<cir::IntType>(ty.getElementType());
if (cc == 3) {
- cgf.cgm.errorNYI(loc, "emitX86MaskedCompare: cc == 3");
- return {};
+ cmp = builder.getNullValue(
+ cir::VectorType::get(builder.getSIntNTy(1), numElts), loc);
} else if (cc == 7) {
- cgf.cgm.errorNYI(loc, "emitX86MaskedCompare cc == 7");
- return {};
+ llvm::APInt allOnes = llvm::APInt::getAllOnes(elementTy.getWidth());
+ cmp = cir::VecSplatOp::create(
+ builder, loc, ty, builder.getConstAPInt(loc, elementTy, allOnes));
} else {
cir::CmpOpKind pred;
switch (cc) {
@@ -350,7 +352,7 @@ static std::optional<mlir::Value> emitX86ConvertToMask(CIRGenFunction &cgf,
mlir::Value in,
mlir::Location loc) {
cir::ConstantOp zero = builder.getNullValue(in.getType(), loc);
- return emitX86MaskedCompare(cgf, builder, 1, true, {in, zero}, loc);
+ return emitX86MaskedCompare(builder, 1, true, {in, zero}, loc);
}
static std::optional<mlir::Value> emitX86SExtMask(CIRGenBuilderTy &builder,
@@ -1746,6 +1748,10 @@ CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, const CallExpr *expr) {
case X86::BI__builtin_ia32_selectsbf_128:
case X86::BI__builtin_ia32_selectss_128:
case X86::BI__builtin_ia32_selectsd_128:
+ cgm.errorNYI(expr->getSourceRange(),
+ std::string("unimplemented X86 builtin call: ") +
+ getContext().BuiltinInfo.getName(builtinID));
+ return mlir::Value{};
case X86::BI__builtin_ia32_cmpb128_mask:
case X86::BI__builtin_ia32_cmpb256_mask:
case X86::BI__builtin_ia32_cmpb512_mask:
@@ -1769,11 +1775,11 @@ CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, const CallExpr *expr) {
case X86::BI__builtin_ia32_ucmpd512_mask:
case X86::BI__builtin_ia32_ucmpq128_mask:
case X86::BI__builtin_ia32_ucmpq256_mask:
- case X86::BI__builtin_ia32_ucmpq512_mask:
- cgm.errorNYI(expr->getSourceRange(),
- std::string("unimplemented X86 builtin call: ") +
- getContext().BuiltinInfo.getName(builtinID));
- return mlir::Value{};
+ case X86::BI__builtin_ia32_ucmpq512_mask: {
+ int64_t cc = CIRGenFunction::getZExtIntValueFromConstOp(ops[2]) & 0x7;
+ return emitX86MaskedCompare(builder, cc, 1, ops,
+ getLoc(expr->getExprLoc()));
+ }
case X86::BI__builtin_ia32_vpcomb:
case X86::BI__builtin_ia32_vpcomw:
case X86::BI__builtin_ia32_vpcomd:
diff --git a/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
new file mode 100644
index 0000000000000..9331a036f34a6
--- /dev/null
+++ b/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
@@ -0,0 +1,709 @@
+// RUN: %clang_cc1 -x c -ffreestanding -triple x86_64-unknown-linux -target-feature +avx512vl -target-feature +avx512bw -Wno-implicit-function-declaration -fclangir -emit-cir -o %t.cir %s
+// RUN: FileCheck --check-prefix=CIR --input-file=%t.cir %s
+// RUN: %clang_cc1 -x c++ -ffreestanding -triple x86_64-unknown-linux -target-feature +avx512vl -target-feature +avx512bw -Wno-implicit-function-declaration -fclangir -emit-cir -o %t.cir %s
+// RUN: FileCheck --check-prefix=CIR --input-file=%t.cir %s
+
+// RUN: %clang_cc1 -x c -ffreestanding -triple x86_64-unknown-linux -target-feature +avx512vl -target-feature +avx512bw -Wno-implicit-function-declaration -fclangir -emit-llvm -o %t.ll %s
+// RUN: FileCheck --check-prefix=LLVM --input-file=%t.ll %s
+// RUN: %clang_cc1 -x c++ -ffreestanding -triple x86_64-unknown-linux -target-feature +avx512vl -target-feature +avx512bw -Wno-implicit-function-declaration -fclangir -emit-llvm -o %t.ll %s
+// RUN: FileCheck --check-prefix=LLVM --input-file=%t.ll %s
+
+// RUN: %clang_cc1 -x c -ffreestanding -triple=x86_64-unknown-linux -target-feature +avx512vl -target-feature +avx512bw -emit-llvm -Wall -Werror %s -o - | FileCheck %s -check-prefix=OGCG
+// RUN: %clang_cc1 -x c++ -ffreestanding -triple=x86_64-unknown-linux -target-feature +avx512vl -target-feature +avx512bw -emit-llvm -Wall -Werror %s -o - | FileCheck %s -check-prefix=OGCG
+
+// RUN: %clang_cc1 -x c -ffreestanding -triple=x86_64-unknown-linux -target-feature +avx512vl -target-feature +avx512bw -emit-llvm -Wall -Werror %s -o - | FileCheck %s -check-prefix=OGCG
+// RUN: %clang_cc1 -x c++ -ffreestanding -triple=x86_64-unknown-linux -target-feature +avx512vl -target-feature +avx512bw -emit-llvm -Wall -Werror %s -o - | FileCheck %s -check-prefix=OGCG
+
+#include <immintrin.h>
+
+__mmask16 test_mm_cmp_epi8_mask(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epi8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s8i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm_cmp_epi8_mask
+ // LLVM: icmp eq <16 x i8> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm_cmp_epi8_mask
+ // OGCG: icmp eq <16 x i8> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm_cmp_epi8_mask(__a, __b, 0);
+}
+
+__mmask16 test_mm_cmp_epi8_mask_imm3(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epi8_mask_imm3
+ // CIR: cir.const #cir.zero : !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm_cmp_epi8_mask_imm3
+ // LLVM: store i16 0, ptr %{{.*}}, align 2
+ // LLVM: load i16, ptr %{{.*}}, align 2
+ // LLVM: ret i16 %{{.*}}
+ // OGCG-LABEL: test_mm_cmp_epi8_mask_imm3
+ // OGCG: ret i16 0
+ return (__mmask16)_mm_cmp_epi8_mask(__a, __b, 3);
+}
+
+__mmask16 test_mm_mask_cmp_epi8_mask(__mmask16 __m, __m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_mask_cmp_epi8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s8i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u16i -> !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm_mask_cmp_epi8_mask
+ // LLVM: icmp eq <16 x i8> %{{.*}}, %{{.*}}
+ // LLVM: and <16 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm_mask_cmp_epi8_mask
+ // OGCG: icmp eq <16 x i8> %{{.*}}, %{{.*}}
+ // OGCG: and <16 x i1> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm_mask_cmp_epi8_mask(__m, __a, __b, 0);
+}
+
+__mmask32 test_mm256_cmp_epi8_mask(__m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_cmp_epi8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<32 x !s8i>, !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+ // LLVM-LABEL: test_mm256_cmp_epi8_mask
+ // LLVM: icmp eq <32 x i8> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_cmp_epi8_mask
+ // OGCG: icmp eq <32 x i8> %{{.*}}, %{{.*}}
+ return (__mmask32)_mm256_cmp_epi8_mask(__a, __b, 0);
+}
+
+__mmask32 test_mm256_mask_cmp_epi8_mask(__mmask32 __m, __m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_mask_cmp_epi8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<32 x !s8i>, !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u32i -> !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+ // LLVM-LABEL: test_mm256_mask_cmp_epi8_mask
+ // LLVM: icmp eq <32 x i8> %{{.*}}, %{{.*}}
+ // LLVM: and <32 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_mask_cmp_epi8_mask
+ // OGCG: icmp eq <32 x i8> %{{.*}}, %{{.*}}
+ // OGCG: and <32 x i1> %{{.*}}, %{{.*}}
+ return (__mmask32)_mm256_mask_cmp_epi8_mask(__m, __a, __b, 0);
+}
+
+__mmask64 test_mm512_cmp_epi8_mask(__m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_cmp_epi8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<64 x !s8i>, !cir.vector<64 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<64 x !cir.int<s, 1>> -> !u64i
+ // LLVM-LABEL: test_mm512_cmp_epi8_mask
+ // LLVM: icmp eq <64 x i8> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_cmp_epi8_mask
+ // OGCG: icmp eq <64 x i8> %{{.*}}, %{{.*}}
+ return (__mmask64)_mm512_cmp_epi8_mask(__a, __b, 0);
+}
+
+__mmask64 test_mm512_mask_cmp_epi8_mask(__mmask64 __m, __m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_mask_cmp_epi8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<64 x !s8i>, !cir.vector<64 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u64i -> !cir.vector<64 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<64 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<64 x !cir.int<s, 1>> -> !u64i
+ // LLVM-LABEL: test_mm512_mask_cmp_epi8_mask
+ // LLVM: icmp eq <64 x i8> %{{.*}}, %{{.*}}
+ // LLVM: and <64 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_mask_cmp_epi8_mask
+ // OGCG: icmp eq <64 x i8> %{{.*}}, %{{.*}}
+ // OGCG: and <64 x i1> %{{.*}}, %{{.*}}
+ return (__mmask64)_mm512_mask_cmp_epi8_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm_cmp_epi16_mask(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epi16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s16i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_cmp_epi16_mask
+ // LLVM: icmp eq <8 x i16> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm_cmp_epi16_mask
+ // OGCG: icmp eq <8 x i16> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm_cmp_epi16_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm_mask_cmp_epi16_mask(__mmask8 __m, __m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_mask_cmp_epi16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s16i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_mask_cmp_epi16_mask
+ // LLVM: icmp eq <8 x i16> %{{.*}}, %{{.*}}
+ // LLVM: and <8 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm_mask_cmp_epi16_mask
+ // OGCG: icmp eq <8 x i16> %{{.*}}, %{{.*}}
+ // OGCG: and <8 x i1> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm_mask_cmp_epi16_mask(__m, __a, __b, 0);
+}
+
+__mmask16 test_mm256_cmp_epi16_mask(__m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_cmp_epi16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s16i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm256_cmp_epi16_mask
+ // LLVM: icmp eq <16 x i16> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_cmp_epi16_mask
+ // OGCG: icmp eq <16 x i16> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm256_cmp_epi16_mask(__a, __b, 0);
+}
+
+__mmask16 test_mm256_mask_cmp_epi16_mask(__mmask16 __m, __m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_mask_cmp_epi16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s16i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u16i -> !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm256_mask_cmp_epi16_mask
+ // LLVM: icmp eq <16 x i16> %{{.*}}, %{{.*}}
+ // LLVM: and <16 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_mask_cmp_epi16_mask
+ // OGCG: icmp eq <16 x i16> %{{.*}}, %{{.*}}
+ // OGCG: and <16 x i1> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm256_mask_cmp_epi16_mask(__m, __a, __b, 0);
+}
+
+__mmask32 test_mm512_cmp_epi16_mask(__m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_cmp_epi16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<32 x !s16i>, !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+ // LLVM-LABEL: test_mm512_cmp_epi16_mask
+ // LLVM: icmp eq <32 x i16> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_cmp_epi16_mask
+ // OGCG: icmp eq <32 x i16> %{{.*}}, %{{.*}}
+ return (__mmask32)_mm512_cmp_epi16_mask(__a, __b, 0);
+}
+
+__mmask32 test_mm512_mask_cmp_epi16_mask(__mmask32 __m, __m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_mask_cmp_epi16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<32 x !s16i>, !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u32i -> !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+ // LLVM-LABEL: test_mm512_mask_cmp_epi16_mask
+ // LLVM: icmp eq <32 x i16> %{{.*}}, %{{.*}}
+ // LLVM: and <32 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_mask_cmp_epi16_mask
+ // OGCG: icmp eq <32 x i16> %{{.*}}, %{{.*}}
+ // OGCG: and <32 x i1> %{{.*}}, %{{.*}}
+ return (__mmask32)_mm512_mask_cmp_epi16_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm_cmp_epi32_mask(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epi32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s32i>, !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_cmp_epi32_mask
+ // LLVM: icmp eq <4 x i32> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ // OGCG-LABEL: test_mm_cmp_epi32_mask
+ // OGCG: icmp eq <4 x i32> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ return (__mmask8)_mm_cmp_epi32_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm_mask_cmp_epi32_mask(__mmask8 __m, __m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_mask_cmp_epi32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s32i>, !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_mask_cmp_epi32_mask
+ // LLVM: icmp eq <4 x i32> %{{.*}}, %{{.*}}
+ // LLVM: bitcast i8 %{{.*}} to <8 x i1>
+ // LLVM: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
+ // LLVM: and <4 x i1> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ // OGCG-LABEL: test_mm_mask_cmp_epi32_mask
+ // OGCG: icmp eq <4 x i32> %{{.*}}, %{{.*}}
+ // OGCG: bitcast i8 %{{.*}} to <8 x i1>
+ // OGCG: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
+ // OGCG: and <4 x i1> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ return (__mmask8)_mm_mask_cmp_epi32_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm256_cmp_epi32_mask(__m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_cmp_epi32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s32i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm256_cmp_epi32_mask
+ // LLVM: icmp eq <8 x i32> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_cmp_epi32_mask
+ // OGCG: icmp eq <8 x i32> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm256_cmp_epi32_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm256_mask_cmp_epi32_mask(__mmask8 __m, __m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_mask_cmp_epi32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s32i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm256_mask_cmp_epi32_mask
+ // LLVM: icmp eq <8 x i32> %{{.*}}, %{{.*}}
+ // LLVM: and <8 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_mask_cmp_epi32_mask
+ // OGCG: icmp eq <8 x i32> %{{.*}}, %{{.*}}
+ // OGCG: and <8 x i1> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm256_mask_cmp_epi32_mask(__m, __a, __b, 0);
+}
+
+__mmask16 test_mm512_cmp_epi32_mask(__m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_cmp_epi32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s32i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm512_cmp_epi32_mask
+ // LLVM: icmp eq <16 x i32> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_cmp_epi32_mask
+ // OGCG: icmp eq <16 x i32> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm512_cmp_epi32_mask(__a, __b, 0);
+}
+
+__mmask16 test_mm512_mask_cmp_epi32_mask(__mmask16 __m, __m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_mask_cmp_epi32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s32i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u16i -> !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm512_mask_cmp_epi32_mask
+ // LLVM: icmp eq <16 x i32> %{{.*}}, %{{.*}}
+ // LLVM: and <16 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_mask_cmp_epi32_mask
+ // OGCG: icmp eq <16 x i32> %{{.*}}, %{{.*}}
+ // OGCG: and <16 x i1> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm512_mask_cmp_epi32_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm_cmp_epi64_mask(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epi64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<2 x !s64i>, !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<2 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_cmp_epi64_mask
+ // LLVM: icmp eq <2 x i64> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <2 x i1> %{{.*}}, <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3>
+ // OGCG-LABEL: test_mm_cmp_epi64_mask
+ // OGCG: icmp eq <2 x i64> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <2 x i1> %{{.*}}, <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3>
+ return (__mmask8)_mm_cmp_epi64_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm_mask_cmp_epi64_mask(__mmask8 __m, __m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_mask_cmp_epi64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<2 x !s64i>, !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i] : !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<2 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_mask_cmp_epi64_mask
+ // LLVM: icmp eq <2 x i64> %{{.*}}, %{{.*}}
+ // LLVM: bitcast i8 %{{.*}} to <8 x i1>
+ // LLVM: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <2 x i32> <i32 0, i32 1>
+ // LLVM: and <2 x i1> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <2 x i1> %{{.*}}, <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3>
+ // OGCG-LABEL: test_mm_mask_cmp_epi64_mask
+ // OGCG: icmp eq <2 x i64> %{{.*}}, %{{.*}}
+ // OGCG: bitcast i8 %{{.*}} to <8 x i1>
+ // OGCG: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <2 x i32> <i32 0, i32 1>
+ // OGCG: and <2 x i1> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <2 x i1> %{{.*}}, <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3>
+ return (__mmask8)_mm_mask_cmp_epi64_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm256_cmp_epi64_mask(__m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_cmp_epi64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s64i>, !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm256_cmp_epi64_mask
+ // LLVM: icmp eq <4 x i64> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ // OGCG-LABEL: test_mm256_cmp_epi64_mask
+ // OGCG: icmp eq <4 x i64> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ return (__mmask8)_mm256_cmp_epi64_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm256_mask_cmp_epi64_mask(__mmask8 __m, __m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_mask_cmp_epi64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s64i>, !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm256_mask_cmp_epi64_mask
+ // LLVM: icmp eq <4 x i64> %{{.*}}, %{{.*}}
+ // LLVM: bitcast i8 %{{.*}} to <8 x i1>
+ // LLVM: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
+ // LLVM: and <4 x i1> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ // OGCG-LABEL: test_mm256_mask_cmp_epi64_mask
+ // OGCG: icmp eq <4 x i64> %{{.*}}, %{{.*}}
+ // OGCG: bitcast i8 %{{.*}} to <8 x i1>
+ // OGCG: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
+ // OGCG: and <4 x i1> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ return (__mmask8)_mm256_mask_cmp_epi64_mask(__m, __a, __b, 0);
+}
+
+__mmask16 test_mm_cmp_epu8_mask(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epu8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s8i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm_cmp_epu8_mask
+ // LLVM: icmp eq <16 x i8> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm_cmp_epu8_mask
+ // OGCG: icmp eq <16 x i8> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm_cmp_epu8_mask(__a, __b, 0);
+}
+
+__mmask16 test_mm_mask_cmp_epu8_mask(__mmask16 __m, __m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_mask_cmp_epu8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s8i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u16i -> !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm_mask_cmp_epu8_mask
+ // LLVM: icmp eq <16 x i8> %{{.*}}, %{{.*}}
+ // LLVM: and <16 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm_mask_cmp_epu8_mask
+ // OGCG: icmp eq <16 x i8> %{{.*}}, %{{.*}}
+ // OGCG: and <16 x i1> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm_mask_cmp_epu8_mask(__m, __a, __b, 0);
+}
+
+__mmask32 test_mm256_cmp_epu8_mask(__m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_cmp_epu8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<32 x !s8i>, !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+ // LLVM-LABEL: test_mm256_cmp_epu8_mask
+ // LLVM: icmp eq <32 x i8> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_cmp_epu8_mask
+ // OGCG: icmp eq <32 x i8> %{{.*}}, %{{.*}}
+ return (__mmask32)_mm256_cmp_epu8_mask(__a, __b, 0);
+}
+
+__mmask32 test_mm256_mask_cmp_epu8_mask(__mmask32 __m, __m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_mask_cmp_epu8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<32 x !s8i>, !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u32i -> !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+ // LLVM-LABEL: test_mm256_mask_cmp_epu8_mask
+ // LLVM: icmp eq <32 x i8> %{{.*}}, %{{.*}}
+ // LLVM: and <32 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_mask_cmp_epu8_mask
+ // OGCG: icmp eq <32 x i8> %{{.*}}, %{{.*}}
+ // OGCG: and <32 x i1> %{{.*}}, %{{.*}}
+ return (__mmask32)_mm256_mask_cmp_epu8_mask(__m, __a, __b, 0);
+}
+
+__mmask64 test_mm512_cmp_epu8_mask(__m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_cmp_epu8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<64 x !s8i>, !cir.vector<64 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<64 x !cir.int<s, 1>> -> !u64i
+ // LLVM-LABEL: test_mm512_cmp_epu8_mask
+ // LLVM: icmp eq <64 x i8> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_cmp_epu8_mask
+ // OGCG: icmp eq <64 x i8> %{{.*}}, %{{.*}}
+ return (__mmask64)_mm512_cmp_epu8_mask(__a, __b, 0);
+}
+
+__mmask64 test_mm512_mask_cmp_epu8_mask(__mmask64 __m, __m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_mask_cmp_epu8_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<64 x !s8i>, !cir.vector<64 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u64i -> !cir.vector<64 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<64 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<64 x !cir.int<s, 1>> -> !u64i
+ // LLVM-LABEL: test_mm512_mask_cmp_epu8_mask
+ // LLVM: icmp eq <64 x i8> %{{.*}}, %{{.*}}
+ // LLVM: and <64 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_mask_cmp_epu8_mask
+ // OGCG: icmp eq <64 x i8> %{{.*}}, %{{.*}}
+ // OGCG: and <64 x i1> %{{.*}}, %{{.*}}
+ return (__mmask64)_mm512_mask_cmp_epu8_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm_cmp_epu16_mask(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epu16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s16i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_cmp_epu16_mask
+ // LLVM: icmp eq <8 x i16> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm_cmp_epu16_mask
+ // OGCG: icmp eq <8 x i16> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm_cmp_epu16_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm_mask_cmp_epu16_mask(__mmask8 __m, __m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_mask_cmp_epu16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s16i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_mask_cmp_epu16_mask
+ // LLVM: icmp eq <8 x i16> %{{.*}}, %{{.*}}
+ // LLVM: and <8 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm_mask_cmp_epu16_mask
+ // OGCG: icmp eq <8 x i16> %{{.*}}, %{{.*}}
+ // OGCG: and <8 x i1> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm_mask_cmp_epu16_mask(__m, __a, __b, 0);
+}
+
+__mmask16 test_mm256_cmp_epu16_mask(__m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_cmp_epu16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s16i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm256_cmp_epu16_mask
+ // LLVM: icmp eq <16 x i16> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_cmp_epu16_mask
+ // OGCG: icmp eq <16 x i16> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm256_cmp_epu16_mask(__a, __b, 0);
+}
+
+__mmask16 test_mm256_mask_cmp_epu16_mask(__mmask16 __m, __m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_mask_cmp_epu16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s16i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u16i -> !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm256_mask_cmp_epu16_mask
+ // LLVM: icmp eq <16 x i16> %{{.*}}, %{{.*}}
+ // LLVM: and <16 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_mask_cmp_epu16_mask
+ // OGCG: icmp eq <16 x i16> %{{.*}}, %{{.*}}
+ // OGCG: and <16 x i1> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm256_mask_cmp_epu16_mask(__m, __a, __b, 0);
+}
+
+__mmask32 test_mm512_cmp_epu16_mask(__m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_cmp_epu16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<32 x !s16i>, !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+ // LLVM-LABEL: test_mm512_cmp_epu16_mask
+ // LLVM: icmp eq <32 x i16> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_cmp_epu16_mask
+ // OGCG: icmp eq <32 x i16> %{{.*}}, %{{.*}}
+ return (__mmask32)_mm512_cmp_epu16_mask(__a, __b, 0);
+}
+
+__mmask32 test_mm512_mask_cmp_epu16_mask(__mmask32 __m, __m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_mask_cmp_epu16_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<32 x !s16i>, !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u32i -> !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<32 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<32 x !cir.int<s, 1>> -> !u32i
+ // LLVM-LABEL: test_mm512_mask_cmp_epu16_mask
+ // LLVM: icmp eq <32 x i16> %{{.*}}, %{{.*}}
+ // LLVM: and <32 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_mask_cmp_epu16_mask
+ // OGCG: icmp eq <32 x i16> %{{.*}}, %{{.*}}
+ // OGCG: and <32 x i1> %{{.*}}, %{{.*}}
+ return (__mmask32)_mm512_mask_cmp_epu16_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm_cmp_epu32_mask(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epu32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s32i>, !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_cmp_epu32_mask
+ // LLVM: icmp eq <4 x i32> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ // OGCG-LABEL: test_mm_cmp_epu32_mask
+ // OGCG: icmp eq <4 x i32> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ return (__mmask8)_mm_cmp_epu32_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm_mask_cmp_epu32_mask(__mmask8 __m, __m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_mask_cmp_epu32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s32i>, !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_mask_cmp_epu32_mask
+ // LLVM: icmp eq <4 x i32> %{{.*}}, %{{.*}}
+ // LLVM: bitcast i8 %{{.*}} to <8 x i1>
+ // LLVM: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
+ // LLVM: and <4 x i1> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ // OGCG-LABEL: test_mm_mask_cmp_epu32_mask
+ // OGCG: icmp eq <4 x i32> %{{.*}}, %{{.*}}
+ // OGCG: bitcast i8 %{{.*}} to <8 x i1>
+ // OGCG: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
+ // OGCG: and <4 x i1> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ return (__mmask8)_mm_mask_cmp_epu32_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm256_cmp_epu32_mask(__m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_cmp_epu32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s32i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm256_cmp_epu32_mask
+ // LLVM: icmp eq <8 x i32> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_cmp_epu32_mask
+ // OGCG: icmp eq <8 x i32> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm256_cmp_epu32_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm256_mask_cmp_epu32_mask(__mmask8 __m, __m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_mask_cmp_epu32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s32i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm256_mask_cmp_epu32_mask
+ // LLVM: icmp eq <8 x i32> %{{.*}}, %{{.*}}
+ // LLVM: and <8 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm256_mask_cmp_epu32_mask
+ // OGCG: icmp eq <8 x i32> %{{.*}}, %{{.*}}
+ // OGCG: and <8 x i1> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm256_mask_cmp_epu32_mask(__m, __a, __b, 0);
+}
+
+__mmask16 test_mm512_cmp_epu32_mask(__m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_cmp_epu32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s32i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm512_cmp_epu32_mask
+ // LLVM: icmp eq <16 x i32> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_cmp_epu32_mask
+ // OGCG: icmp eq <16 x i32> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm512_cmp_epu32_mask(__a, __b, 0);
+}
+
+__mmask16 test_mm512_mask_cmp_epu32_mask(__mmask16 __m, __m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_mask_cmp_epu32_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<16 x !s32i>, !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u16i -> !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<16 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<16 x !cir.int<s, 1>> -> !u16i
+ // LLVM-LABEL: test_mm512_mask_cmp_epu32_mask
+ // LLVM: icmp eq <16 x i32> %{{.*}}, %{{.*}}
+ // LLVM: and <16 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_mask_cmp_epu32_mask
+ // OGCG: icmp eq <16 x i32> %{{.*}}, %{{.*}}
+ // OGCG: and <16 x i1> %{{.*}}, %{{.*}}
+ return (__mmask16)_mm512_mask_cmp_epu32_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm_cmp_epu64_mask(__m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_cmp_epu64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<2 x !s64i>, !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<2 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_cmp_epu64_mask
+ // LLVM: icmp eq <2 x i64> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <2 x i1> %{{.*}}, <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3>
+ // OGCG-LABEL: test_mm_cmp_epu64_mask
+ // OGCG: icmp eq <2 x i64> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <2 x i1> %{{.*}}, <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3>
+ return (__mmask8)_mm_cmp_epu64_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm_mask_cmp_epu64_mask(__mmask8 __m, __m128i __a, __m128i __b) {
+ // CIR-LABEL: test_mm_mask_cmp_epu64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<2 x !s64i>, !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i] : !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<2 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<2 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm_mask_cmp_epu64_mask
+ // LLVM: icmp eq <2 x i64> %{{.*}}, %{{.*}}
+ // LLVM: bitcast i8 %{{.*}} to <8 x i1>
+ // LLVM: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <2 x i32> <i32 0, i32 1>
+ // LLVM: and <2 x i1> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <2 x i1> %{{.*}}, <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3>
+ // OGCG-LABEL: test_mm_mask_cmp_epu64_mask
+ // OGCG: icmp eq <2 x i64> %{{.*}}, %{{.*}}
+ // OGCG: bitcast i8 %{{.*}} to <8 x i1>
+ // OGCG: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <2 x i32> <i32 0, i32 1>
+ // OGCG: and <2 x i1> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <2 x i1> %{{.*}}, <2 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 2, i32 3, i32 2, i32 3>
+ return (__mmask8)_mm_mask_cmp_epu64_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm256_cmp_epu64_mask(__m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_cmp_epu64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s64i>, !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm256_cmp_epu64_mask
+ // LLVM: icmp eq <4 x i64> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ // OGCG-LABEL: test_mm256_cmp_epu64_mask
+ // OGCG: icmp eq <4 x i64> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ return (__mmask8)_mm256_cmp_epu64_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm256_mask_cmp_epu64_mask(__mmask8 __m, __m256i __a, __m256i __b) {
+ // CIR-LABEL: test_mm256_mask_cmp_epu64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s64i>, !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
+ // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm256_mask_cmp_epu64_mask
+ // LLVM: icmp eq <4 x i64> %{{.*}}, %{{.*}}
+ // LLVM: bitcast i8 %{{.*}} to <8 x i1>
+ // LLVM: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
+ // LLVM: and <4 x i1> %{{.*}}, %{{.*}}
+ // LLVM: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ // OGCG-LABEL: test_mm256_mask_cmp_epu64_mask
+ // OGCG: icmp eq <4 x i64> %{{.*}}, %{{.*}}
+ // OGCG: bitcast i8 %{{.*}} to <8 x i1>
+ // OGCG: shufflevector <8 x i1> %{{.*}}, <8 x i1> %{{.*}}, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
+ // OGCG: and <4 x i1> %{{.*}}, %{{.*}}
+ // OGCG: shufflevector <4 x i1> %{{.*}}, <4 x i1> zeroinitializer, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
+ return (__mmask8)_mm256_mask_cmp_epu64_mask(__m, __a, __b, 0);
+}
+
+__mmask8 test_mm512_cmp_epu64_mask(__m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_cmp_epu64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s64i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm512_cmp_epu64_mask
+ // LLVM: icmp eq <8 x i64> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_cmp_epu64_mask
+ // OGCG: icmp eq <8 x i64> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm512_cmp_epu64_mask(__a, __b, 0);
+}
+
+__mmask8 test_mm512_mask_cmp_epu64_mask(__mmask8 __m, __m512i __a, __m512i __b) {
+ // CIR-LABEL: test_mm512_mask_cmp_epu64_mask
+ // CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<8 x !s64i>, !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<8 x !cir.int<s, 1>>
+ // CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
+ // LLVM-LABEL: test_mm512_mask_cmp_epu64_mask
+ // LLVM: icmp eq <8 x i64> %{{.*}}, %{{.*}}
+ // LLVM: and <8 x i1> %{{.*}}, %{{.*}}
+ // OGCG-LABEL: test_mm512_mask_cmp_epu64_mask
+ // OGCG: icmp eq <8 x i64> %{{.*}}, %{{.*}}
+ // OGCG: and <8 x i1> %{{.*}}, %{{.*}}
+ return (__mmask8)_mm512_mask_cmp_epu64_mask(__m, __a, __b, 0);
+}
\ No newline at end of file
>From d62db39ee7d21a39a5b89a1e8cc500c3e7672d23 Mon Sep 17 00:00:00 2001
From: Zhihui Yang <youngwisdm at gmail.com>
Date: Fri, 16 Jan 2026 06:20:30 -0800
Subject: [PATCH 2/4] format
---
clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp | 7 +++----
1 file changed, 3 insertions(+), 4 deletions(-)
diff --git a/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp b/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
index e7f6a26a6a200..e713de49146c4 100644
--- a/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
+++ b/clang/lib/CIR/CodeGen/CIRGenBuiltinX86.cpp
@@ -293,9 +293,8 @@ static mlir::Value emitX86MaskedCompareResult(CIRGenBuilderTy &builder,
// TODO: The cgf parameter should be removed when all the NYI cases are
// implemented.
static std::optional<mlir::Value>
-emitX86MaskedCompare(CIRGenBuilderTy &builder, unsigned cc,
- bool isSigned, ArrayRef<mlir::Value> ops,
- mlir::Location loc) {
+emitX86MaskedCompare(CIRGenBuilderTy &builder, unsigned cc, bool isSigned,
+ ArrayRef<mlir::Value> ops, mlir::Location loc) {
assert((ops.size() == 2 || ops.size() == 4) &&
"Unexpected number of arguments");
unsigned numElts = cast<cir::VectorType>(ops[0].getType()).getSize();
@@ -1748,7 +1747,7 @@ CIRGenFunction::emitX86BuiltinExpr(unsigned builtinID, const CallExpr *expr) {
case X86::BI__builtin_ia32_selectsbf_128:
case X86::BI__builtin_ia32_selectss_128:
case X86::BI__builtin_ia32_selectsd_128:
- cgm.errorNYI(expr->getSourceRange(),
+ cgm.errorNYI(expr->getSourceRange(),
std::string("unimplemented X86 builtin call: ") +
getContext().BuiltinInfo.getName(builtinID));
return mlir::Value{};
>From 6a7cb43aad2fd7930e43363d9511ac82cbe5ee37 Mon Sep 17 00:00:00 2001
From: Zhihui Yang <youngwisdm at gmail.com>
Date: Fri, 16 Jan 2026 22:21:42 +0800
Subject: [PATCH 3/4] Fix missing newline at end of cmp-builtins.c
Add a newline at the end of cmp-builtins.c
---
clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c | 2 +-
1 file changed, 1 insertion(+), 1 deletion(-)
diff --git a/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
index 9331a036f34a6..6c502af284ae3 100644
--- a/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
+++ b/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
@@ -706,4 +706,4 @@ __mmask8 test_mm512_mask_cmp_epu64_mask(__mmask8 __m, __m512i __a, __m512i __b)
// OGCG: icmp eq <8 x i64> %{{.*}}, %{{.*}}
// OGCG: and <8 x i1> %{{.*}}, %{{.*}}
return (__mmask8)_mm512_mask_cmp_epu64_mask(__m, __a, __b, 0);
-}
\ No newline at end of file
+}
>From 4a647ab6b8d5c0d4f0ddd4d6340f932af0b9cde7 Mon Sep 17 00:00:00 2001
From: Zhihui Yang <youngwisdm at gmail.com>
Date: Tue, 20 Jan 2026 21:57:08 +0800
Subject: [PATCH 4/4] Clean up comments in cmp-builtins.c
Removed unnecessary CIR comments from test_mm_cmp_epi32_mask function.
---
clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c | 3 ---
1 file changed, 3 deletions(-)
diff --git a/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c b/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
index 6c502af284ae3..42162d86662b9 100644
--- a/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
+++ b/clang/test/CIR/CodeGenBuiltins/X86/cmp-builtins.c
@@ -188,9 +188,6 @@ __mmask32 test_mm512_mask_cmp_epi16_mask(__mmask32 __m, __m512i __a, __m512i __b
__mmask8 test_mm_cmp_epi32_mask(__m128i __a, __m128i __b) {
// CIR-LABEL: test_mm_cmp_epi32_mask
// CIR: cir.vec.cmp(eq, {{%.*}}, {{%.*}}) : !cir.vector<4 x !s32i>, !cir.vector<4 x !cir.int<s, 1>>
- // CIR: cir.cast bitcast {{%.*}} : !u8i -> !cir.vector<8 x !cir.int<s, 1>>
- // CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<8 x !cir.int<s, 1>>) [#cir.int<0> : !s32i, #cir.int<1> : !s32i, #cir.int<2> : !s32i, #cir.int<3> : !s32i] : !cir.vector<4 x !cir.int<s, 1>>
- // CIR: cir.binop(and, {{%.*}}, {{%.*}}) : !cir.vector<4 x !cir.int<s, 1>>
// CIR: cir.const #cir.zero : !cir.vector<4 x !cir.int<s, 1>>
// CIR: cir.vec.shuffle({{%.*}}, {{%.*}} : !cir.vector<4 x !cir.int<s, 1>>) [#cir.int<0> : !s64i, #cir.int<1> : !s64i, #cir.int<2> : !s64i, #cir.int<3> : !s64i, #cir.int<4> : !s64i, #cir.int<5> : !s64i, #cir.int<6> : !s64i, #cir.int<7> : !s64i] : !cir.vector<8 x !cir.int<s, 1>>
// CIR: cir.cast bitcast {{%.*}} : !cir.vector<8 x !cir.int<s, 1>> -> !u8i
More information about the cfe-commits
mailing list