[llvm-branch-commits] [clang] [X86] Backport saturate-convert intrinsics renaming & YMM rounding intrinsics removal in AVX10.2 (PR #135549)
Phoebe Wang via llvm-branch-commits
llvm-branch-commits at lists.llvm.org
Sun Apr 13 07:48:17 PDT 2025
https://github.com/phoebewang created https://github.com/llvm/llvm-project/pull/135549
AVX10.2 YMM rounding instructions are removed from latest AVX10 technical paper. Remove all intrinsics from compiler.
AVX10.2 saturate-convert intrinsics are modified to use "s_" in the name. It is a consensus made with GCC folks to avoid future ambiguity.
>From a4c839752432e1da912b3fa3832d364b57859d5e Mon Sep 17 00:00:00 2001
From: "Wang, Phoebe" <phoebe.wang at intel.com>
Date: Sun, 13 Apr 2025 20:25:29 +0800
Subject: [PATCH] [X86] Backport saturate-convert intrinsics renaming & YMM
rounding intrinsics removal in AVX10.2
AVX10.2 YMM rounding instructions are removed from latest AVX10 technical paper. Remove all intrinsics from compiler.
AVX10.2 saturate-convert intrinsics are modified to use "s_" in the name. It is a consensus made with GCC folks to avoid future ambiguity.
---
clang/lib/Headers/avx10_2_512convertintrin.h | 46 +-
clang/lib/Headers/avx10_2_512satcvtdsintrin.h | 52 +-
clang/lib/Headers/avx10_2_512satcvtintrin.h | 168 +-
clang/lib/Headers/avx10_2convertintrin.h | 112 +-
clang/lib/Headers/avx10_2minmaxintrin.h | 45 -
clang/lib/Headers/avx10_2niintrin.h | 1666 ------------
clang/lib/Headers/avx10_2satcvtdsintrin.h | 210 +-
clang/lib/Headers/avx10_2satcvtintrin.h | 288 +-
.../CodeGen/X86/avx10_2_512convert-builtins.c | 108 +-
.../CodeGen/X86/avx10_2_512minmax-error.c | 11 -
.../X86/avx10_2_512satcvt-builtins-error.c | 198 --
.../CodeGen/X86/avx10_2_512satcvt-builtins.c | 360 +--
.../X86/avx10_2_512satcvtds-builtins-x64.c | 96 +-
.../X86/avx10_2_512satcvtds-builtins.c | 74 +-
.../CodeGen/X86/avx10_2convert-builtins.c | 234 +-
.../test/CodeGen/X86/avx10_2minmax-builtins.c | 54 -
clang/test/CodeGen/X86/avx10_2ni-builtins.c | 2405 -----------------
.../test/CodeGen/X86/avx10_2satcvt-builtins.c | 574 ++--
.../X86/avx10_2satcvtds-builtins-errors.c | 57 -
.../X86/avx10_2satcvtds-builtins-x64.c | 240 +-
.../CodeGen/X86/avx10_2satcvtds-builtins.c | 223 +-
21 files changed, 1127 insertions(+), 6094 deletions(-)
delete mode 100755 clang/test/CodeGen/X86/avx10_2_512satcvt-builtins-error.c
delete mode 100644 clang/test/CodeGen/X86/avx10_2satcvtds-builtins-errors.c
diff --git a/clang/lib/Headers/avx10_2_512convertintrin.h b/clang/lib/Headers/avx10_2_512convertintrin.h
index 516ccc68672d6..ee8cbf28ca41c 100644
--- a/clang/lib/Headers/avx10_2_512convertintrin.h
+++ b/clang/lib/Headers/avx10_2_512convertintrin.h
@@ -78,20 +78,20 @@ _mm512_maskz_cvtbiasph_bf8(__mmask32 __U, __m512i __A, __m512h __B) {
}
static __inline__ __m256i __DEFAULT_FN_ATTRS512
-_mm512_cvtbiassph_bf8(__m512i __A, __m512h __B) {
+_mm512_cvts_biasph_bf8(__m512i __A, __m512h __B) {
return (__m256i)__builtin_ia32_vcvtbiasph2bf8s_512_mask(
(__v64qi)__A, (__v32hf)__B, (__v32qi)_mm256_undefined_si256(),
(__mmask32)-1);
}
-static __inline__ __m256i __DEFAULT_FN_ATTRS512 _mm512_mask_cvtbiassph_bf8(
+static __inline__ __m256i __DEFAULT_FN_ATTRS512 _mm512_mask_cvts_biasph_bf8(
__m256i __W, __mmask32 __U, __m512i __A, __m512h __B) {
return (__m256i)__builtin_ia32_vcvtbiasph2bf8s_512_mask(
(__v64qi)__A, (__v32hf)__B, (__v32qi)(__m256i)__W, (__mmask32)__U);
}
static __inline__ __m256i __DEFAULT_FN_ATTRS512
-_mm512_maskz_cvtbiassph_bf8(__mmask32 __U, __m512i __A, __m512h __B) {
+_mm512_maskz_cvts_biasph_bf8(__mmask32 __U, __m512i __A, __m512h __B) {
return (__m256i)__builtin_ia32_vcvtbiasph2bf8s_512_mask(
(__v64qi)__A, (__v32hf)__B, (__v32qi)(__m256i)_mm256_setzero_si256(),
(__mmask32)__U);
@@ -118,20 +118,20 @@ _mm512_maskz_cvtbiasph_hf8(__mmask32 __U, __m512i __A, __m512h __B) {
}
static __inline__ __m256i __DEFAULT_FN_ATTRS512
-_mm512_cvtbiassph_hf8(__m512i __A, __m512h __B) {
+_mm512_cvts_biasph_hf8(__m512i __A, __m512h __B) {
return (__m256i)__builtin_ia32_vcvtbiasph2hf8s_512_mask(
(__v64qi)__A, (__v32hf)__B, (__v32qi)_mm256_undefined_si256(),
(__mmask32)-1);
}
-static __inline__ __m256i __DEFAULT_FN_ATTRS512 _mm512_mask_cvtbiassph_hf8(
+static __inline__ __m256i __DEFAULT_FN_ATTRS512 _mm512_mask_cvts_biasph_hf8(
__m256i __W, __mmask32 __U, __m512i __A, __m512h __B) {
return (__m256i)__builtin_ia32_vcvtbiasph2hf8s_512_mask(
(__v64qi)__A, (__v32hf)__B, (__v32qi)(__m256i)__W, (__mmask32)__U);
}
static __inline__ __m256i __DEFAULT_FN_ATTRS512
-_mm512_maskz_cvtbiassph_hf8(__mmask32 __U, __m512i __A, __m512h __B) {
+_mm512_maskz_cvts_biasph_hf8(__mmask32 __U, __m512i __A, __m512h __B) {
return (__m256i)__builtin_ia32_vcvtbiasph2hf8s_512_mask(
(__v64qi)__A, (__v32hf)__B, (__v32qi)(__m256i)_mm256_setzero_si256(),
(__mmask32)__U);
@@ -157,21 +157,21 @@ _mm512_maskz_cvt2ph_bf8(__mmask64 __U, __m512h __A, __m512h __B) {
}
static __inline__ __m512i __DEFAULT_FN_ATTRS512
-_mm512_cvts2ph_bf8(__m512h __A, __m512h __B) {
+_mm512_cvts_2ph_bf8(__m512h __A, __m512h __B) {
return (__m512i)__builtin_ia32_vcvt2ph2bf8s_512((__v32hf)(__A),
(__v32hf)(__B));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS512
-_mm512_mask_cvts2ph_bf8(__m512i __W, __mmask64 __U, __m512h __A, __m512h __B) {
+_mm512_mask_cvts_2ph_bf8(__m512i __W, __mmask64 __U, __m512h __A, __m512h __B) {
return (__m512i)__builtin_ia32_selectb_512(
- (__mmask64)__U, (__v64qi)_mm512_cvts2ph_bf8(__A, __B), (__v64qi)__W);
+ (__mmask64)__U, (__v64qi)_mm512_cvts_2ph_bf8(__A, __B), (__v64qi)__W);
}
static __inline__ __m512i __DEFAULT_FN_ATTRS512
-_mm512_maskz_cvts2ph_bf8(__mmask64 __U, __m512h __A, __m512h __B) {
+_mm512_maskz_cvts_2ph_bf8(__mmask64 __U, __m512h __A, __m512h __B) {
return (__m512i)__builtin_ia32_selectb_512(
- (__mmask64)__U, (__v64qi)_mm512_cvts2ph_bf8(__A, __B),
+ (__mmask64)__U, (__v64qi)_mm512_cvts_2ph_bf8(__A, __B),
(__v64qi)(__m512i)_mm512_setzero_si512());
}
@@ -195,21 +195,21 @@ _mm512_maskz_cvt2ph_hf8(__mmask64 __U, __m512h __A, __m512h __B) {
}
static __inline__ __m512i __DEFAULT_FN_ATTRS512
-_mm512_cvts2ph_hf8(__m512h __A, __m512h __B) {
+_mm512_cvts_2ph_hf8(__m512h __A, __m512h __B) {
return (__m512i)__builtin_ia32_vcvt2ph2hf8s_512((__v32hf)(__A),
(__v32hf)(__B));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS512
-_mm512_mask_cvts2ph_hf8(__m512i __W, __mmask64 __U, __m512h __A, __m512h __B) {
+_mm512_mask_cvts_2ph_hf8(__m512i __W, __mmask64 __U, __m512h __A, __m512h __B) {
return (__m512i)__builtin_ia32_selectb_512(
- (__mmask64)__U, (__v64qi)_mm512_cvts2ph_hf8(__A, __B), (__v64qi)__W);
+ (__mmask64)__U, (__v64qi)_mm512_cvts_2ph_hf8(__A, __B), (__v64qi)__W);
}
static __inline__ __m512i __DEFAULT_FN_ATTRS512
-_mm512_maskz_cvts2ph_hf8(__mmask64 __U, __m512h __A, __m512h __B) {
+_mm512_maskz_cvts_2ph_hf8(__mmask64 __U, __m512h __A, __m512h __B) {
return (__m512i)__builtin_ia32_selectb_512(
- (__mmask64)__U, (__v64qi)_mm512_cvts2ph_hf8(__A, __B),
+ (__mmask64)__U, (__v64qi)_mm512_cvts_2ph_hf8(__A, __B),
(__v64qi)(__m512i)_mm512_setzero_si512());
}
@@ -247,19 +247,20 @@ _mm512_maskz_cvtph_bf8(__mmask32 __U, __m512h __A) {
(__v32hf)__A, (__v32qi)(__m256i)_mm256_setzero_si256(), (__mmask32)__U);
}
-static __inline__ __m256i __DEFAULT_FN_ATTRS512 _mm512_cvtsph_bf8(__m512h __A) {
+static __inline__ __m256i __DEFAULT_FN_ATTRS512
+_mm512_cvts_ph_bf8(__m512h __A) {
return (__m256i)__builtin_ia32_vcvtph2bf8s_512_mask(
(__v32hf)__A, (__v32qi)(__m256i)_mm256_undefined_si256(), (__mmask32)-1);
}
static __inline__ __m256i __DEFAULT_FN_ATTRS512
-_mm512_mask_cvtsph_bf8(__m256i __W, __mmask32 __U, __m512h __A) {
+_mm512_mask_cvts_ph_bf8(__m256i __W, __mmask32 __U, __m512h __A) {
return (__m256i)__builtin_ia32_vcvtph2bf8s_512_mask(
(__v32hf)__A, (__v32qi)(__m256i)__W, (__mmask32)__U);
}
static __inline__ __m256i __DEFAULT_FN_ATTRS512
-_mm512_maskz_cvtsph_bf8(__mmask32 __U, __m512h __A) {
+_mm512_maskz_cvts_ph_bf8(__mmask32 __U, __m512h __A) {
return (__m256i)__builtin_ia32_vcvtph2bf8s_512_mask(
(__v32hf)__A, (__v32qi)(__m256i)_mm256_setzero_si256(), (__mmask32)__U);
}
@@ -281,19 +282,20 @@ _mm512_maskz_cvtph_hf8(__mmask32 __U, __m512h __A) {
(__v32hf)__A, (__v32qi)(__m256i)_mm256_setzero_si256(), (__mmask32)__U);
}
-static __inline__ __m256i __DEFAULT_FN_ATTRS512 _mm512_cvtsph_hf8(__m512h __A) {
+static __inline__ __m256i __DEFAULT_FN_ATTRS512
+_mm512_cvts_ph_hf8(__m512h __A) {
return (__m256i)__builtin_ia32_vcvtph2hf8s_512_mask(
(__v32hf)__A, (__v32qi)(__m256i)_mm256_undefined_si256(), (__mmask32)-1);
}
static __inline__ __m256i __DEFAULT_FN_ATTRS512
-_mm512_mask_cvtsph_hf8(__m256i __W, __mmask32 __U, __m512h __A) {
+_mm512_mask_cvts_ph_hf8(__m256i __W, __mmask32 __U, __m512h __A) {
return (__m256i)__builtin_ia32_vcvtph2hf8s_512_mask(
(__v32hf)__A, (__v32qi)(__m256i)__W, (__mmask32)__U);
}
static __inline__ __m256i __DEFAULT_FN_ATTRS512
-_mm512_maskz_cvtsph_hf8(__mmask32 __U, __m512h __A) {
+_mm512_maskz_cvts_ph_hf8(__mmask32 __U, __m512h __A) {
return (__m256i)__builtin_ia32_vcvtph2hf8s_512_mask(
(__v32hf)__A, (__v32qi)(__m256i)_mm256_setzero_si256(), (__mmask32)__U);
}
diff --git a/clang/lib/Headers/avx10_2_512satcvtdsintrin.h b/clang/lib/Headers/avx10_2_512satcvtdsintrin.h
index 5970ab0331444..012a6282b5b18 100644
--- a/clang/lib/Headers/avx10_2_512satcvtdsintrin.h
+++ b/clang/lib/Headers/avx10_2_512satcvtdsintrin.h
@@ -20,20 +20,21 @@
__min_vector_width__(512)))
// 512 bit : Double -> Int
-static __inline__ __m256i __DEFAULT_FN_ATTRS _mm512_cvttspd_epi32(__m512d __A) {
+static __inline__ __m256i __DEFAULT_FN_ATTRS
+_mm512_cvtts_pd_epi32(__m512d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2dqs512_round_mask(
(__v8df)__A, (__v8si)_mm256_undefined_si256(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS
-_mm512_mask_cvttspd_epi32(__m256i __W, __mmask8 __U, __m512d __A) {
+_mm512_mask_cvtts_pd_epi32(__m256i __W, __mmask8 __U, __m512d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2dqs512_round_mask(
(__v8df)__A, (__v8si)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS
-_mm512_maskz_cvttspd_epi32(__mmask8 __U, __m512d __A) {
+_mm512_maskz_cvtts_pd_epi32(__mmask8 __U, __m512d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2dqs512_round_mask(
(__v8df)__A, (__v8si)_mm256_setzero_si256(), __U,
_MM_FROUND_CUR_DIRECTION));
@@ -55,20 +56,21 @@ _mm512_maskz_cvttspd_epi32(__mmask8 __U, __m512d __A) {
(const int)(__R)))
// 512 bit : Double -> uInt
-static __inline__ __m256i __DEFAULT_FN_ATTRS _mm512_cvttspd_epu32(__m512d __A) {
+static __inline__ __m256i __DEFAULT_FN_ATTRS
+_mm512_cvtts_pd_epu32(__m512d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2udqs512_round_mask(
(__v8df)__A, (__v8si)_mm256_undefined_si256(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS
-_mm512_mask_cvttspd_epu32(__m256i __W, __mmask8 __U, __m512d __A) {
+_mm512_mask_cvtts_pd_epu32(__m256i __W, __mmask8 __U, __m512d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2udqs512_round_mask(
(__v8df)__A, (__v8si)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS
-_mm512_maskz_cvttspd_epu32(__mmask8 __U, __m512d __A) {
+_mm512_maskz_cvtts_pd_epu32(__mmask8 __U, __m512d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2udqs512_round_mask(
(__v8df)__A, (__v8si)_mm256_setzero_si256(), __U,
_MM_FROUND_CUR_DIRECTION));
@@ -91,18 +93,19 @@ _mm512_maskz_cvttspd_epu32(__mmask8 __U, __m512d __A) {
// 512 bit : Double -> Long
-static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvttspd_epi64(__m512d __A) {
+static __inline__ __m512i __DEFAULT_FN_ATTRS
+_mm512_cvtts_pd_epi64(__m512d __A) {
return ((__m512i)__builtin_ia32_vcvttpd2qqs512_round_mask(
(__v8df)__A, (__v8di)_mm512_undefined_epi32(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_mask_cvttspd_epi64(__m512i __W, __mmask8 __U, __m512d __A) {
+_mm512_mask_cvtts_pd_epi64(__m512i __W, __mmask8 __U, __m512d __A) {
return ((__m512i)__builtin_ia32_vcvttpd2qqs512_round_mask(
(__v8df)__A, (__v8di)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_maskz_cvttspd_epi64(__mmask8 __U, __m512d __A) {
+_mm512_maskz_cvtts_pd_epi64(__mmask8 __U, __m512d __A) {
return ((__m512i)__builtin_ia32_vcvttpd2qqs512_round_mask(
(__v8df)__A, (__v8di)_mm512_setzero_si512(), __U,
_MM_FROUND_CUR_DIRECTION));
@@ -125,20 +128,21 @@ _mm512_maskz_cvttspd_epi64(__mmask8 __U, __m512d __A) {
// 512 bit : Double -> ULong
-static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvttspd_epu64(__m512d __A) {
+static __inline__ __m512i __DEFAULT_FN_ATTRS
+_mm512_cvtts_pd_epu64(__m512d __A) {
return ((__m512i)__builtin_ia32_vcvttpd2uqqs512_round_mask(
(__v8df)__A, (__v8di)_mm512_undefined_epi32(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_mask_cvttspd_epu64(__m512i __W, __mmask8 __U, __m512d __A) {
+_mm512_mask_cvtts_pd_epu64(__m512i __W, __mmask8 __U, __m512d __A) {
return ((__m512i)__builtin_ia32_vcvttpd2uqqs512_round_mask(
(__v8df)__A, (__v8di)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_maskz_cvttspd_epu64(__mmask8 __U, __m512d __A) {
+_mm512_maskz_cvtts_pd_epu64(__mmask8 __U, __m512d __A) {
return ((__m512i)__builtin_ia32_vcvttpd2uqqs512_round_mask(
(__v8df)__A, (__v8di)_mm512_setzero_si512(), __U,
_MM_FROUND_CUR_DIRECTION));
@@ -160,20 +164,20 @@ _mm512_maskz_cvttspd_epu64(__mmask8 __U, __m512d __A) {
(const int)(__R)))
// 512 bit: Float -> int
-static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvttsps_epi32(__m512 __A) {
+static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvtts_ps_epi32(__m512 __A) {
return ((__m512i)__builtin_ia32_vcvttps2dqs512_round_mask(
(__v16sf)(__A), (__v16si)_mm512_undefined_epi32(), (__mmask16)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_mask_cvttsps_epi32(__m512i __W, __mmask16 __U, __m512 __A) {
+_mm512_mask_cvtts_ps_epi32(__m512i __W, __mmask16 __U, __m512 __A) {
return ((__m512i)__builtin_ia32_vcvttps2dqs512_round_mask(
(__v16sf)(__A), (__v16si)(__W), __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_maskz_cvttsps_epi32(__mmask16 __U, __m512 __A) {
+_mm512_maskz_cvtts_ps_epi32(__mmask16 __U, __m512 __A) {
return ((__m512i)__builtin_ia32_vcvttps2dqs512_round_mask(
(__v16sf)(__A), (__v16si)_mm512_setzero_si512(), __U,
_MM_FROUND_CUR_DIRECTION));
@@ -195,20 +199,20 @@ _mm512_maskz_cvttsps_epi32(__mmask16 __U, __m512 __A) {
(__mmask16)(__U), (const int)(__R)))
// 512 bit: Float -> uint
-static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvttsps_epu32(__m512 __A) {
+static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvtts_ps_epu32(__m512 __A) {
return ((__m512i)__builtin_ia32_vcvttps2udqs512_round_mask(
(__v16sf)(__A), (__v16si)_mm512_undefined_epi32(), (__mmask16)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_mask_cvttsps_epu32(__m512i __W, __mmask16 __U, __m512 __A) {
+_mm512_mask_cvtts_ps_epu32(__m512i __W, __mmask16 __U, __m512 __A) {
return ((__m512i)__builtin_ia32_vcvttps2udqs512_round_mask(
(__v16sf)(__A), (__v16si)(__W), __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_maskz_cvttsps_epu32(__mmask16 __U, __m512 __A) {
+_mm512_maskz_cvtts_ps_epu32(__mmask16 __U, __m512 __A) {
return ((__m512i)__builtin_ia32_vcvttps2udqs512_round_mask(
(__v16sf)(__A), (__v16si)_mm512_setzero_si512(), __U,
_MM_FROUND_CUR_DIRECTION));
@@ -230,20 +234,20 @@ _mm512_maskz_cvttsps_epu32(__mmask16 __U, __m512 __A) {
(__mmask16)(__U), (const int)(__R)))
// 512 bit : float -> long
-static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvttsps_epi64(__m256 __A) {
+static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvtts_ps_epi64(__m256 __A) {
return ((__m512i)__builtin_ia32_vcvttps2qqs512_round_mask(
(__v8sf)__A, (__v8di)_mm512_undefined_epi32(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_mask_cvttsps_epi64(__m512i __W, __mmask8 __U, __m256 __A) {
+_mm512_mask_cvtts_ps_epi64(__m512i __W, __mmask8 __U, __m256 __A) {
return ((__m512i)__builtin_ia32_vcvttps2qqs512_round_mask(
(__v8sf)__A, (__v8di)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_maskz_cvttsps_epi64(__mmask8 __U, __m256 __A) {
+_mm512_maskz_cvtts_ps_epi64(__mmask8 __U, __m256 __A) {
return ((__m512i)__builtin_ia32_vcvttps2qqs512_round_mask(
(__v8sf)__A, (__v8di)_mm512_setzero_si512(), __U,
_MM_FROUND_CUR_DIRECTION));
@@ -265,20 +269,20 @@ _mm512_maskz_cvttsps_epi64(__mmask8 __U, __m256 __A) {
(const int)(__R)))
// 512 bit : float -> ulong
-static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvttsps_epu64(__m256 __A) {
+static __inline__ __m512i __DEFAULT_FN_ATTRS _mm512_cvtts_ps_epu64(__m256 __A) {
return ((__m512i)__builtin_ia32_vcvttps2uqqs512_round_mask(
(__v8sf)__A, (__v8di)_mm512_undefined_epi32(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_mask_cvttsps_epu64(__m512i __W, __mmask8 __U, __m256 __A) {
+_mm512_mask_cvtts_ps_epu64(__m512i __W, __mmask8 __U, __m256 __A) {
return ((__m512i)__builtin_ia32_vcvttps2uqqs512_round_mask(
(__v8sf)__A, (__v8di)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m512i __DEFAULT_FN_ATTRS
-_mm512_maskz_cvttsps_epu64(__mmask8 __U, __m256 __A) {
+_mm512_maskz_cvtts_ps_epu64(__mmask8 __U, __m256 __A) {
return ((__m512i)__builtin_ia32_vcvttps2uqqs512_round_mask(
(__v8sf)__A, (__v8di)_mm512_setzero_si512(), __U,
_MM_FROUND_CUR_DIRECTION));
diff --git a/clang/lib/Headers/avx10_2_512satcvtintrin.h b/clang/lib/Headers/avx10_2_512satcvtintrin.h
index 7f41deb5212c5..b58e3db8956d6 100644
--- a/clang/lib/Headers/avx10_2_512satcvtintrin.h
+++ b/clang/lib/Headers/avx10_2_512satcvtintrin.h
@@ -14,286 +14,286 @@
#ifndef __AVX10_2_512SATCVTINTRIN_H
#define __AVX10_2_512SATCVTINTRIN_H
-#define _mm512_ipcvtbf16_epi8(A) \
+#define _mm512_ipcvts_bf16_epi8(A) \
((__m512i)__builtin_ia32_vcvtbf162ibs512((__v32bf)(__m512bh)(A)))
-#define _mm512_mask_ipcvtbf16_epi8(W, U, A) \
+#define _mm512_mask_ipcvts_bf16_epi8(W, U, A) \
((__m512i)__builtin_ia32_selectw_512((__mmask32)(U), \
- (__v32hi)_mm512_ipcvtbf16_epi8(A), \
+ (__v32hi)_mm512_ipcvts_bf16_epi8(A), \
(__v32hi)(__m512i)(W)))
-#define _mm512_maskz_ipcvtbf16_epi8(U, A) \
+#define _mm512_maskz_ipcvts_bf16_epi8(U, A) \
((__m512i)__builtin_ia32_selectw_512((__mmask32)(U), \
- (__v32hi)_mm512_ipcvtbf16_epi8(A), \
+ (__v32hi)_mm512_ipcvts_bf16_epi8(A), \
(__v32hi)_mm512_setzero_si512()))
-#define _mm512_ipcvtbf16_epu8(A) \
+#define _mm512_ipcvts_bf16_epu8(A) \
((__m512i)__builtin_ia32_vcvtbf162iubs512((__v32bf)(__m512bh)(A)))
-#define _mm512_mask_ipcvtbf16_epu8(W, U, A) \
+#define _mm512_mask_ipcvts_bf16_epu8(W, U, A) \
((__m512i)__builtin_ia32_selectw_512((__mmask32)(U), \
- (__v32hi)_mm512_ipcvtbf16_epu8(A), \
+ (__v32hi)_mm512_ipcvts_bf16_epu8(A), \
(__v32hi)(__m512i)(W)))
-#define _mm512_maskz_ipcvtbf16_epu8(U, A) \
+#define _mm512_maskz_ipcvts_bf16_epu8(U, A) \
((__m512i)__builtin_ia32_selectw_512((__mmask32)(U), \
- (__v32hi)_mm512_ipcvtbf16_epu8(A), \
+ (__v32hi)_mm512_ipcvts_bf16_epu8(A), \
(__v32hi)_mm512_setzero_si512()))
-#define _mm512_ipcvttbf16_epi8(A) \
+#define _mm512_ipcvtts_bf16_epi8(A) \
((__m512i)__builtin_ia32_vcvttbf162ibs512((__v32bf)(__m512bh)(A)))
-#define _mm512_mask_ipcvttbf16_epi8(W, U, A) \
+#define _mm512_mask_ipcvtts_bf16_epi8(W, U, A) \
((__m512i)__builtin_ia32_selectw_512((__mmask32)(U), \
- (__v32hi)_mm512_ipcvttbf16_epi8(A), \
+ (__v32hi)_mm512_ipcvtts_bf16_epi8(A), \
(__v32hi)(__m512i)(W)))
-#define _mm512_maskz_ipcvttbf16_epi8(U, A) \
+#define _mm512_maskz_ipcvtts_bf16_epi8(U, A) \
((__m512i)__builtin_ia32_selectw_512((__mmask32)(U), \
- (__v32hi)_mm512_ipcvttbf16_epi8(A), \
+ (__v32hi)_mm512_ipcvtts_bf16_epi8(A), \
(__v32hi)_mm512_setzero_si512()))
-#define _mm512_ipcvttbf16_epu8(A) \
+#define _mm512_ipcvtts_bf16_epu8(A) \
((__m512i)__builtin_ia32_vcvttbf162iubs512((__v32bf)(__m512bh)(A)))
-#define _mm512_mask_ipcvttbf16_epu8(W, U, A) \
+#define _mm512_mask_ipcvtts_bf16_epu8(W, U, A) \
((__m512i)__builtin_ia32_selectw_512((__mmask32)(U), \
- (__v32hi)_mm512_ipcvttbf16_epu8(A), \
+ (__v32hi)_mm512_ipcvtts_bf16_epu8(A), \
(__v32hi)(__m512i)(W)))
-#define _mm512_maskz_ipcvttbf16_epu8(U, A) \
+#define _mm512_maskz_ipcvtts_bf16_epu8(U, A) \
((__m512i)__builtin_ia32_selectw_512((__mmask32)(U), \
- (__v32hi)_mm512_ipcvttbf16_epu8(A), \
+ (__v32hi)_mm512_ipcvtts_bf16_epu8(A), \
(__v32hi)_mm512_setzero_si512()))
-#define _mm512_ipcvtph_epi8(A) \
+#define _mm512_ipcvts_ph_epi8(A) \
((__m512i)__builtin_ia32_vcvtph2ibs512_mask( \
- (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)-1, \
+ (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32) - 1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_mask_ipcvtph_epi8(W, U, A) \
+#define _mm512_mask_ipcvts_ph_epi8(W, U, A) \
((__m512i)__builtin_ia32_vcvtph2ibs512_mask((__v32hf)(__m512h)(A), \
(__v32hu)(W), (__mmask32)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_maskz_ipcvtph_epi8(U, A) \
+#define _mm512_maskz_ipcvts_ph_epi8(U, A) \
((__m512i)__builtin_ia32_vcvtph2ibs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_ipcvt_roundph_epi8(A, R) \
+#define _mm512_ipcvts_roundph_epi8(A, R) \
((__m512i)__builtin_ia32_vcvtph2ibs512_mask((__v32hf)(__m512h)(A), \
(__v32hu)_mm512_setzero_si512(), \
- (__mmask32)-1, (const int)R))
+ (__mmask32) - 1, (const int)R))
-#define _mm512_mask_ipcvt_roundph_epi8(W, U, A, R) \
+#define _mm512_mask_ipcvts_roundph_epi8(W, U, A, R) \
((__m512i)__builtin_ia32_vcvtph2ibs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)(W), (__mmask32)(U), (const int)R))
-#define _mm512_maskz_ipcvt_roundph_epi8(U, A, R) \
+#define _mm512_maskz_ipcvts_roundph_epi8(U, A, R) \
((__m512i)__builtin_ia32_vcvtph2ibs512_mask((__v32hf)(__m512h)(A), \
(__v32hu)_mm512_setzero_si512(), \
(__mmask32)(U), (const int)R))
-#define _mm512_ipcvtph_epu8(A) \
+#define _mm512_ipcvts_ph_epu8(A) \
((__m512i)__builtin_ia32_vcvtph2iubs512_mask( \
- (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)-1, \
+ (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32) - 1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_mask_ipcvtph_epu8(W, U, A) \
+#define _mm512_mask_ipcvts_ph_epu8(W, U, A) \
((__m512i)__builtin_ia32_vcvtph2iubs512_mask((__v32hf)(__m512h)(A), \
(__v32hu)(W), (__mmask32)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_maskz_ipcvtph_epu8(U, A) \
+#define _mm512_maskz_ipcvts_ph_epu8(U, A) \
((__m512i)__builtin_ia32_vcvtph2iubs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_ipcvt_roundph_epu8(A, R) \
+#define _mm512_ipcvts_roundph_epu8(A, R) \
((__m512i)__builtin_ia32_vcvtph2iubs512_mask( \
- (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)-1, \
+ (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32) - 1, \
(const int)R))
-#define _mm512_mask_ipcvt_roundph_epu8(W, U, A, R) \
+#define _mm512_mask_ipcvts_roundph_epu8(W, U, A, R) \
((__m512i)__builtin_ia32_vcvtph2iubs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)(W), (__mmask32)(U), (const int)R))
-#define _mm512_maskz_ipcvt_roundph_epu8(U, A, R) \
+#define _mm512_maskz_ipcvts_roundph_epu8(U, A, R) \
((__m512i)__builtin_ia32_vcvtph2iubs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)(U), \
(const int)R))
-#define _mm512_ipcvtps_epi8(A) \
+#define _mm512_ipcvts_ps_epi8(A) \
((__m512i)__builtin_ia32_vcvtps2ibs512_mask( \
- (__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)-1, \
+ (__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16) - 1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_mask_ipcvtps_epi8(W, U, A) \
+#define _mm512_mask_ipcvts_ps_epi8(W, U, A) \
((__m512i)__builtin_ia32_vcvtps2ibs512_mask((__v16sf)(__m512)(A), \
(__v16su)(W), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_maskz_ipcvtps_epi8(U, A) \
+#define _mm512_maskz_ipcvts_ps_epi8(U, A) \
((__m512i)__builtin_ia32_vcvtps2ibs512_mask( \
(__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_ipcvt_roundps_epi8(A, R) \
+#define _mm512_ipcvts_roundps_epi8(A, R) \
((__m512i)__builtin_ia32_vcvtps2ibs512_mask((__v16sf)(__m512)(A), \
(__v16su)_mm512_setzero_si512(), \
- (__mmask16)-1, (const int)R))
+ (__mmask16) - 1, (const int)R))
-#define _mm512_mask_ipcvt_roundps_epi8(W, U, A, R) \
+#define _mm512_mask_ipcvts_roundps_epi8(W, U, A, R) \
((__m512i)__builtin_ia32_vcvtps2ibs512_mask( \
(__v16sf)(__m512)(A), (__v16su)(W), (__mmask16)(U), (const int)R))
-#define _mm512_maskz_ipcvt_roundps_epi8(U, A, R) \
+#define _mm512_maskz_ipcvts_roundps_epi8(U, A, R) \
((__m512i)__builtin_ia32_vcvtps2ibs512_mask((__v16sf)(__m512)(A), \
(__v16su)_mm512_setzero_si512(), \
(__mmask16)(U), (const int)R))
-#define _mm512_ipcvtps_epu8(A) \
+#define _mm512_ipcvts_ps_epu8(A) \
((__m512i)__builtin_ia32_vcvtps2iubs512_mask( \
- (__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)-1, \
+ (__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16) - 1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_mask_ipcvtps_epu8(W, U, A) \
+#define _mm512_mask_ipcvts_ps_epu8(W, U, A) \
((__m512i)__builtin_ia32_vcvtps2iubs512_mask((__v16sf)(__m512)(A), \
(__v16su)(W), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_maskz_ipcvtps_epu8(U, A) \
+#define _mm512_maskz_ipcvts_ps_epu8(U, A) \
((__m512i)__builtin_ia32_vcvtps2iubs512_mask( \
(__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_ipcvt_roundps_epu8(A, R) \
+#define _mm512_ipcvts_roundps_epu8(A, R) \
((__m512i)__builtin_ia32_vcvtps2iubs512_mask( \
- (__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)-1, \
+ (__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16) - 1, \
(const int)R))
-#define _mm512_mask_ipcvt_roundps_epu8(W, U, A, R) \
+#define _mm512_mask_ipcvts_roundps_epu8(W, U, A, R) \
((__m512i)__builtin_ia32_vcvtps2iubs512_mask( \
(__v16sf)(__m512)(A), (__v16su)(W), (__mmask16)(U), (const int)R))
-#define _mm512_maskz_ipcvt_roundps_epu8(U, A, R) \
+#define _mm512_maskz_ipcvts_roundps_epu8(U, A, R) \
((__m512i)__builtin_ia32_vcvtps2iubs512_mask( \
(__v16sf)(__m512)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)(U), \
(const int)R))
-#define _mm512_ipcvttph_epi8(A) \
+#define _mm512_ipcvtts_ph_epi8(A) \
((__m512i)__builtin_ia32_vcvttph2ibs512_mask( \
- (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)-1, \
+ (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32) - 1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_mask_ipcvttph_epi8(W, U, A) \
+#define _mm512_mask_ipcvtts_ph_epi8(W, U, A) \
((__m512i)__builtin_ia32_vcvttph2ibs512_mask((__v32hf)(__m512h)(A), \
(__v32hu)(W), (__mmask32)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_maskz_ipcvttph_epi8(U, A) \
+#define _mm512_maskz_ipcvtts_ph_epi8(U, A) \
((__m512i)__builtin_ia32_vcvttph2ibs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_ipcvtt_roundph_epi8(A, S) \
+#define _mm512_ipcvtts_roundph_epi8(A, S) \
((__m512i)__builtin_ia32_vcvttph2ibs512_mask( \
- (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)-1, \
+ (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32) - 1, \
S))
-#define _mm512_mask_ipcvtt_roundph_epi8(W, U, A, S) \
+#define _mm512_mask_ipcvtts_roundph_epi8(W, U, A, S) \
((__m512i)__builtin_ia32_vcvttph2ibs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)(W), (__mmask32)(U), S))
-#define _mm512_maskz_ipcvtt_roundph_epi8(U, A, S) \
+#define _mm512_maskz_ipcvtts_roundph_epi8(U, A, S) \
((__m512i)__builtin_ia32_vcvttph2ibs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)(U), \
S))
-#define _mm512_ipcvttph_epu8(A) \
+#define _mm512_ipcvtts_ph_epu8(A) \
((__m512i)__builtin_ia32_vcvttph2iubs512_mask( \
- (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)-1, \
+ (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32) - 1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_mask_ipcvttph_epu8(W, U, A) \
+#define _mm512_mask_ipcvtts_ph_epu8(W, U, A) \
((__m512i)__builtin_ia32_vcvttph2iubs512_mask((__v32hf)(__m512h)(A), \
(__v32hu)(W), (__mmask32)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_maskz_ipcvttph_epu8(U, A) \
+#define _mm512_maskz_ipcvtts_ph_epu8(U, A) \
((__m512i)__builtin_ia32_vcvttph2iubs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_ipcvtt_roundph_epu8(A, S) \
+#define _mm512_ipcvtts_roundph_epu8(A, S) \
((__m512i)__builtin_ia32_vcvttph2iubs512_mask( \
- (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)-1, \
+ (__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32) - 1, \
S))
-#define _mm512_mask_ipcvtt_roundph_epu8(W, U, A, S) \
+#define _mm512_mask_ipcvtts_roundph_epu8(W, U, A, S) \
((__m512i)__builtin_ia32_vcvttph2iubs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)(W), (__mmask32)(U), S))
-#define _mm512_maskz_ipcvtt_roundph_epu8(U, A, S) \
+#define _mm512_maskz_ipcvtts_roundph_epu8(U, A, S) \
((__m512i)__builtin_ia32_vcvttph2iubs512_mask( \
(__v32hf)(__m512h)(A), (__v32hu)_mm512_setzero_si512(), (__mmask32)(U), \
S))
-#define _mm512_ipcvttps_epi8(A) \
+#define _mm512_ipcvtts_ps_epi8(A) \
((__m512i)__builtin_ia32_vcvttps2ibs512_mask( \
- (__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)-1, \
+ (__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16) - 1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_mask_ipcvttps_epi8(W, U, A) \
+#define _mm512_mask_ipcvtts_ps_epi8(W, U, A) \
((__m512i)__builtin_ia32_vcvttps2ibs512_mask((__v16sf)(__m512h)(A), \
(__v16su)(W), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_maskz_ipcvttps_epi8(U, A) \
+#define _mm512_maskz_ipcvtts_ps_epi8(U, A) \
((__m512i)__builtin_ia32_vcvttps2ibs512_mask( \
(__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_ipcvtt_roundps_epi8(A, S) \
+#define _mm512_ipcvtts_roundps_epi8(A, S) \
((__m512i)__builtin_ia32_vcvttps2ibs512_mask( \
- (__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)-1, \
+ (__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16) - 1, \
S))
-#define _mm512_mask_ipcvtt_roundps_epi8(W, U, A, S) \
+#define _mm512_mask_ipcvtts_roundps_epi8(W, U, A, S) \
((__m512i)__builtin_ia32_vcvttps2ibs512_mask( \
(__v16sf)(__m512h)(A), (__v16su)(W), (__mmask16)(U), S))
-#define _mm512_maskz_ipcvtt_roundps_epi8(U, A, S) \
+#define _mm512_maskz_ipcvtts_roundps_epi8(U, A, S) \
((__m512i)__builtin_ia32_vcvttps2ibs512_mask( \
(__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)(U), \
S))
-#define _mm512_ipcvttps_epu8(A) \
+#define _mm512_ipcvtts_ps_epu8(A) \
((__m512i)__builtin_ia32_vcvttps2iubs512_mask( \
- (__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)-1, \
+ (__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16) - 1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_mask_ipcvttps_epu8(W, U, A) \
+#define _mm512_mask_ipcvtts_ps_epu8(W, U, A) \
((__m512i)__builtin_ia32_vcvttps2iubs512_mask((__v16sf)(__m512h)(A), \
(__v16su)(W), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_maskz_ipcvttps_epu8(U, A) \
+#define _mm512_maskz_ipcvtts_ps_epu8(U, A) \
((__m512i)__builtin_ia32_vcvttps2iubs512_mask( \
(__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm512_ipcvtt_roundps_epu8(A, S) \
+#define _mm512_ipcvtts_roundps_epu8(A, S) \
((__m512i)__builtin_ia32_vcvttps2iubs512_mask( \
- (__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)-1, \
+ (__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16) - 1, \
S))
-#define _mm512_mask_ipcvtt_roundps_epu8(W, U, A, S) \
+#define _mm512_mask_ipcvtts_roundps_epu8(W, U, A, S) \
((__m512i)__builtin_ia32_vcvttps2iubs512_mask( \
(__v16sf)(__m512h)(A), (__v16su)(W), (__mmask16)(U), S))
-#define _mm512_maskz_ipcvtt_roundps_epu8(U, A, S) \
+#define _mm512_maskz_ipcvtts_roundps_epu8(U, A, S) \
((__m512i)__builtin_ia32_vcvttps2iubs512_mask( \
(__v16sf)(__m512h)(A), (__v16su)_mm512_setzero_si512(), (__mmask16)(U), \
S))
diff --git a/clang/lib/Headers/avx10_2convertintrin.h b/clang/lib/Headers/avx10_2convertintrin.h
index 07722090c30ee..bd6ff6099d8a7 100644
--- a/clang/lib/Headers/avx10_2convertintrin.h
+++ b/clang/lib/Headers/avx10_2convertintrin.h
@@ -63,22 +63,8 @@ _mm256_maskz_cvtx2ps_ph(__mmask16 __U, __m256 __A, __m256 __B) {
_MM_FROUND_CUR_DIRECTION);
}
-#define _mm256_cvtx_round2ps_ph(A, B, R) \
- ((__m256h)__builtin_ia32_vcvt2ps2phx256_mask( \
- (__v8sf)(A), (__v8sf)(B), (__v16hf)_mm256_undefined_ph(), \
- (__mmask16)(-1), (const int)(R)))
-
-#define _mm256_mask_cvtx_round2ps_ph(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_vcvt2ps2phx256_mask( \
- (__v8sf)(A), (__v8sf)(B), (__v16hf)(W), (__mmask16)(U), (const int)(R)))
-
-#define _mm256_maskz_cvtx_round2ps_ph(U, A, B, R) \
- ((__m256h)__builtin_ia32_vcvt2ps2phx256_mask( \
- (__v8sf)(A), (__v8sf)(B), (__v16hf)(_mm256_setzero_ph()), \
- (__mmask16)(U), (const int)(R)))
-
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvtbiasph_bf8(__m128i __A,
- __m128h __B) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128
+_mm_cvtbiasph_bf8(__m128i __A, __m128h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2bf8_128_mask(
(__v16qi)__A, (__v8hf)__B, (__v16qi)_mm_undefined_si128(), (__mmask8)-1);
}
@@ -117,39 +103,39 @@ _mm256_maskz_cvtbiasph_bf8(__mmask16 __U, __m256i __A, __m256h __B) {
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_cvtbiassph_bf8(__m128i __A, __m128h __B) {
+_mm_cvts_biasph_bf8(__m128i __A, __m128h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2bf8s_128_mask(
(__v16qi)__A, (__v8hf)__B, (__v16qi)_mm_undefined_si128(), (__mmask8)-1);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvtbiassph_bf8(__m128i __W, __mmask8 __U, __m128i __A, __m128h __B) {
+_mm_mask_cvts_biasph_bf8(__m128i __W, __mmask8 __U, __m128i __A, __m128h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2bf8s_128_mask(
(__v16qi)__A, (__v8hf)__B, (__v16qi)(__m128i)__W, (__mmask8)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvtbiassph_bf8(__mmask8 __U, __m128i __A, __m128h __B) {
+_mm_maskz_cvts_biasph_bf8(__mmask8 __U, __m128i __A, __m128h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2bf8s_128_mask(
(__v16qi)__A, (__v8hf)__B, (__v16qi)(__m128i)_mm_setzero_si128(),
(__mmask8)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_cvtbiassph_bf8(__m256i __A, __m256h __B) {
+_mm256_cvts_biasph_bf8(__m256i __A, __m256h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2bf8s_256_mask(
(__v32qi)__A, (__v16hf)__B, (__v16qi)(__m128i)_mm_undefined_si128(),
(__mmask16)-1);
}
-static __inline__ __m128i __DEFAULT_FN_ATTRS256 _mm256_mask_cvtbiassph_bf8(
+static __inline__ __m128i __DEFAULT_FN_ATTRS256 _mm256_mask_cvts_biasph_bf8(
__m128i __W, __mmask16 __U, __m256i __A, __m256h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2bf8s_256_mask(
(__v32qi)__A, (__v16hf)__B, (__v16qi)(__m128i)__W, (__mmask16)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvtbiassph_bf8(__mmask16 __U, __m256i __A, __m256h __B) {
+_mm256_maskz_cvts_biasph_bf8(__mmask16 __U, __m256i __A, __m256h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2bf8s_256_mask(
(__v32qi)__A, (__v16hf)__B, (__v16qi)(__m128i)_mm_setzero_si128(),
(__mmask16)__U);
@@ -195,39 +181,39 @@ _mm256_maskz_cvtbiasph_hf8(__mmask16 __U, __m256i __A, __m256h __B) {
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_cvtbiassph_hf8(__m128i __A, __m128h __B) {
+_mm_cvts_biasph_hf8(__m128i __A, __m128h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2hf8s_128_mask(
(__v16qi)__A, (__v8hf)__B, (__v16qi)_mm_undefined_si128(), (__mmask8)-1);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvtbiassph_hf8(__m128i __W, __mmask8 __U, __m128i __A, __m128h __B) {
+_mm_mask_cvts_biasph_hf8(__m128i __W, __mmask8 __U, __m128i __A, __m128h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2hf8s_128_mask(
(__v16qi)__A, (__v8hf)__B, (__v16qi)(__m128i)__W, (__mmask8)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvtbiassph_hf8(__mmask8 __U, __m128i __A, __m128h __B) {
+_mm_maskz_cvts_biasph_hf8(__mmask8 __U, __m128i __A, __m128h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2hf8s_128_mask(
(__v16qi)__A, (__v8hf)__B, (__v16qi)(__m128i)_mm_setzero_si128(),
(__mmask8)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_cvtbiassph_hf8(__m256i __A, __m256h __B) {
+_mm256_cvts_biasph_hf8(__m256i __A, __m256h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2hf8s_256_mask(
(__v32qi)__A, (__v16hf)__B, (__v16qi)(__m128i)_mm_undefined_si128(),
(__mmask16)-1);
}
-static __inline__ __m128i __DEFAULT_FN_ATTRS256 _mm256_mask_cvtbiassph_hf8(
+static __inline__ __m128i __DEFAULT_FN_ATTRS256 _mm256_mask_cvts_biasph_hf8(
__m128i __W, __mmask16 __U, __m256i __A, __m256h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2hf8s_256_mask(
(__v32qi)__A, (__v16hf)__B, (__v16qi)(__m128i)__W, (__mmask16)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvtbiassph_hf8(__mmask16 __U, __m256i __A, __m256h __B) {
+_mm256_maskz_cvts_biasph_hf8(__mmask16 __U, __m256i __A, __m256h __B) {
return (__m128i)__builtin_ia32_vcvtbiasph2hf8s_256_mask(
(__v32qi)__A, (__v16hf)__B, (__v16qi)(__m128i)_mm_setzero_si128(),
(__mmask16)__U);
@@ -270,40 +256,40 @@ _mm256_maskz_cvt2ph_bf8(__mmask32 __U, __m256h __A, __m256h __B) {
(__v32qi)(__m256i)_mm256_setzero_si256());
}
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvts2ph_bf8(__m128h __A,
- __m128h __B) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvts_2ph_bf8(__m128h __A,
+ __m128h __B) {
return (__m128i)__builtin_ia32_vcvt2ph2bf8s_128((__v8hf)(__A), (__v8hf)(__B));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvts2ph_bf8(__m128i __W, __mmask16 __U, __m128h __A, __m128h __B) {
+_mm_mask_cvts_2ph_bf8(__m128i __W, __mmask16 __U, __m128h __A, __m128h __B) {
return (__m128i)__builtin_ia32_selectb_128(
- (__mmask16)__U, (__v16qi)_mm_cvts2ph_bf8(__A, __B), (__v16qi)__W);
+ (__mmask16)__U, (__v16qi)_mm_cvts_2ph_bf8(__A, __B), (__v16qi)__W);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvts2ph_bf8(__mmask16 __U, __m128h __A, __m128h __B) {
+_mm_maskz_cvts_2ph_bf8(__mmask16 __U, __m128h __A, __m128h __B) {
return (__m128i)__builtin_ia32_selectb_128(
- (__mmask16)__U, (__v16qi)_mm_cvts2ph_bf8(__A, __B),
+ (__mmask16)__U, (__v16qi)_mm_cvts_2ph_bf8(__A, __B),
(__v16qi)(__m128i)_mm_setzero_si128());
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_cvts2ph_bf8(__m256h __A, __m256h __B) {
+_mm256_cvts_2ph_bf8(__m256h __A, __m256h __B) {
return (__m256i)__builtin_ia32_vcvt2ph2bf8s_256((__v16hf)(__A),
(__v16hf)(__B));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvts2ph_bf8(__m256i __W, __mmask32 __U, __m256h __A, __m256h __B) {
+_mm256_mask_cvts_2ph_bf8(__m256i __W, __mmask32 __U, __m256h __A, __m256h __B) {
return (__m256i)__builtin_ia32_selectb_256(
- (__mmask32)__U, (__v32qi)_mm256_cvts2ph_bf8(__A, __B), (__v32qi)__W);
+ (__mmask32)__U, (__v32qi)_mm256_cvts_2ph_bf8(__A, __B), (__v32qi)__W);
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvts2ph_bf8(__mmask32 __U, __m256h __A, __m256h __B) {
+_mm256_maskz_cvts_2ph_bf8(__mmask32 __U, __m256h __A, __m256h __B) {
return (__m256i)__builtin_ia32_selectb_256(
- (__mmask32)__U, (__v32qi)_mm256_cvts2ph_bf8(__A, __B),
+ (__mmask32)__U, (__v32qi)_mm256_cvts_2ph_bf8(__A, __B),
(__v32qi)(__m256i)_mm256_setzero_si256());
}
@@ -344,40 +330,40 @@ _mm256_maskz_cvt2ph_hf8(__mmask32 __U, __m256h __A, __m256h __B) {
(__v32qi)(__m256i)_mm256_setzero_si256());
}
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvts2ph_hf8(__m128h __A,
- __m128h __B) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvts_2ph_hf8(__m128h __A,
+ __m128h __B) {
return (__m128i)__builtin_ia32_vcvt2ph2hf8s_128((__v8hf)(__A), (__v8hf)(__B));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvts2ph_hf8(__m128i __W, __mmask16 __U, __m128h __A, __m128h __B) {
+_mm_mask_cvts_2ph_hf8(__m128i __W, __mmask16 __U, __m128h __A, __m128h __B) {
return (__m128i)__builtin_ia32_selectb_128(
- (__mmask16)__U, (__v16qi)_mm_cvts2ph_hf8(__A, __B), (__v16qi)__W);
+ (__mmask16)__U, (__v16qi)_mm_cvts_2ph_hf8(__A, __B), (__v16qi)__W);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvts2ph_hf8(__mmask16 __U, __m128h __A, __m128h __B) {
+_mm_maskz_cvts_2ph_hf8(__mmask16 __U, __m128h __A, __m128h __B) {
return (__m128i)__builtin_ia32_selectb_128(
- (__mmask16)__U, (__v16qi)_mm_cvts2ph_hf8(__A, __B),
+ (__mmask16)__U, (__v16qi)_mm_cvts_2ph_hf8(__A, __B),
(__v16qi)(__m128i)_mm_setzero_si128());
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_cvts2ph_hf8(__m256h __A, __m256h __B) {
+_mm256_cvts_2ph_hf8(__m256h __A, __m256h __B) {
return (__m256i)__builtin_ia32_vcvt2ph2hf8s_256((__v16hf)(__A),
(__v16hf)(__B));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvts2ph_hf8(__m256i __W, __mmask32 __U, __m256h __A, __m256h __B) {
+_mm256_mask_cvts_2ph_hf8(__m256i __W, __mmask32 __U, __m256h __A, __m256h __B) {
return (__m256i)__builtin_ia32_selectb_256(
- (__mmask32)__U, (__v32qi)_mm256_cvts2ph_hf8(__A, __B), (__v32qi)__W);
+ (__mmask32)__U, (__v32qi)_mm256_cvts_2ph_hf8(__A, __B), (__v32qi)__W);
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvts2ph_hf8(__mmask32 __U, __m256h __A, __m256h __B) {
+_mm256_maskz_cvts_2ph_hf8(__mmask32 __U, __m256h __A, __m256h __B) {
return (__m256i)__builtin_ia32_selectb_256(
- (__mmask32)__U, (__v32qi)_mm256_cvts2ph_hf8(__A, __B),
+ (__mmask32)__U, (__v32qi)_mm256_cvts_2ph_hf8(__A, __B),
(__v32qi)(__m256i)_mm256_setzero_si256());
}
@@ -449,36 +435,37 @@ _mm256_maskz_cvtph_bf8(__mmask16 __U, __m256h __A) {
(__v16hf)__A, (__v16qi)(__m128i)_mm_setzero_si128(), (__mmask16)__U);
}
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvtsph_bf8(__m128h __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvts_ph_bf8(__m128h __A) {
return (__m128i)__builtin_ia32_vcvtph2bf8s_128_mask(
(__v8hf)__A, (__v16qi)(__m128i)_mm_undefined_si128(), (__mmask8)-1);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvtsph_bf8(__m128i __W, __mmask8 __U, __m128h __A) {
+_mm_mask_cvts_ph_bf8(__m128i __W, __mmask8 __U, __m128h __A) {
return (__m128i)__builtin_ia32_vcvtph2bf8s_128_mask(
(__v8hf)__A, (__v16qi)(__m128i)__W, (__mmask8)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvtsph_bf8(__mmask8 __U, __m128h __A) {
+_mm_maskz_cvts_ph_bf8(__mmask8 __U, __m128h __A) {
return (__m128i)__builtin_ia32_vcvtph2bf8s_128_mask(
(__v8hf)__A, (__v16qi)(__m128i)_mm_setzero_si128(), (__mmask8)__U);
}
-static __inline__ __m128i __DEFAULT_FN_ATTRS256 _mm256_cvtsph_bf8(__m256h __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS256
+_mm256_cvts_ph_bf8(__m256h __A) {
return (__m128i)__builtin_ia32_vcvtph2bf8s_256_mask(
(__v16hf)__A, (__v16qi)(__m128i)_mm_undefined_si128(), (__mmask16)-1);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvtsph_bf8(__m128i __W, __mmask16 __U, __m256h __A) {
+_mm256_mask_cvts_ph_bf8(__m128i __W, __mmask16 __U, __m256h __A) {
return (__m128i)__builtin_ia32_vcvtph2bf8s_256_mask(
(__v16hf)__A, (__v16qi)(__m128i)__W, (__mmask16)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvtsph_bf8(__mmask16 __U, __m256h __A) {
+_mm256_maskz_cvts_ph_bf8(__mmask16 __U, __m256h __A) {
return (__m128i)__builtin_ia32_vcvtph2bf8s_256_mask(
(__v16hf)__A, (__v16qi)(__m128i)_mm_setzero_si128(), (__mmask16)__U);
}
@@ -517,36 +504,37 @@ _mm256_maskz_cvtph_hf8(__mmask16 __U, __m256h __A) {
(__v16hf)__A, (__v16qi)(__m128i)_mm_setzero_si128(), (__mmask16)__U);
}
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvtsph_hf8(__m128h __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvts_ph_hf8(__m128h __A) {
return (__m128i)__builtin_ia32_vcvtph2hf8s_128_mask(
(__v8hf)__A, (__v16qi)(__m128i)_mm_undefined_si128(), (__mmask8)-1);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvtsph_hf8(__m128i __W, __mmask8 __U, __m128h __A) {
+_mm_mask_cvts_ph_hf8(__m128i __W, __mmask8 __U, __m128h __A) {
return (__m128i)__builtin_ia32_vcvtph2hf8s_128_mask(
(__v8hf)__A, (__v16qi)(__m128i)__W, (__mmask8)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvtsph_hf8(__mmask8 __U, __m128h __A) {
+_mm_maskz_cvts_ph_hf8(__mmask8 __U, __m128h __A) {
return (__m128i)__builtin_ia32_vcvtph2hf8s_128_mask(
(__v8hf)__A, (__v16qi)(__m128i)_mm_setzero_si128(), (__mmask8)__U);
}
-static __inline__ __m128i __DEFAULT_FN_ATTRS256 _mm256_cvtsph_hf8(__m256h __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS256
+_mm256_cvts_ph_hf8(__m256h __A) {
return (__m128i)__builtin_ia32_vcvtph2hf8s_256_mask(
(__v16hf)__A, (__v16qi)(__m128i)_mm_undefined_si128(), (__mmask16)-1);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvtsph_hf8(__m128i __W, __mmask16 __U, __m256h __A) {
+_mm256_mask_cvts_ph_hf8(__m128i __W, __mmask16 __U, __m256h __A) {
return (__m128i)__builtin_ia32_vcvtph2hf8s_256_mask(
(__v16hf)__A, (__v16qi)(__m128i)__W, (__mmask16)__U);
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvtsph_hf8(__mmask16 __U, __m256h __A) {
+_mm256_maskz_cvts_ph_hf8(__mmask16 __U, __m256h __A) {
return (__m128i)__builtin_ia32_vcvtph2hf8s_256_mask(
(__v16hf)__A, (__v16qi)(__m128i)_mm_setzero_si128(), (__mmask16)__U);
}
diff --git a/clang/lib/Headers/avx10_2minmaxintrin.h b/clang/lib/Headers/avx10_2minmaxintrin.h
index 8164d49d89f1f..a59b74dbc54b3 100644
--- a/clang/lib/Headers/avx10_2minmaxintrin.h
+++ b/clang/lib/Headers/avx10_2minmaxintrin.h
@@ -80,21 +80,6 @@
(__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), \
(__v4df)_mm256_setzero_pd(), (__mmask8)(U), _MM_FROUND_NO_EXC))
-#define _mm256_minmax_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vminmaxpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), \
- (__v4df)_mm256_undefined_pd(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_minmax_round_pd(W, U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vminmaxpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), \
- (__v4df)(__m256d)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_minmax_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vminmaxpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), \
- (__v4df)_mm256_setzero_pd(), (__mmask8)(U), (int)(R)))
-
#define _mm_minmax_ph(A, B, C) \
((__m128h)__builtin_ia32_vminmaxph128_mask( \
(__v8hf)(__m128h)(A), (__v8hf)(__m128h)(B), (int)(C), \
@@ -125,21 +110,6 @@
(__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (int)(C), \
(__v16hf)_mm256_setzero_ph(), (__mmask16)(U), _MM_FROUND_NO_EXC))
-#define _mm256_minmax_round_ph(A, B, C, R) \
- ((__m256h)__builtin_ia32_vminmaxph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (int)(C), \
- (__v16hf)_mm256_undefined_ph(), (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask_minmax_round_ph(W, U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vminmaxph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (C), \
- (__v16hf)(__m256h)(W), (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_minmax_round_ph(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vminmaxph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (int)(C), \
- (__v16hf)_mm256_setzero_ph(), (__mmask16)(U), (int)(R)))
-
#define _mm_minmax_ps(A, B, C) \
((__m128)__builtin_ia32_vminmaxps128_mask( \
(__v4sf)(__m128)(A), (__v4sf)(__m128)(B), (int)(C), \
@@ -170,21 +140,6 @@
(__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), \
(__v8sf)_mm256_setzero_ps(), (__mmask8)(U), _MM_FROUND_NO_EXC))
-#define _mm256_minmax_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vminmaxps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), \
- (__v8sf)_mm256_undefined_ps(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_minmax_round_ps(W, U, A, B, C, R) \
- ((__m256)__builtin_ia32_vminmaxps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), (__v8sf)(__m256)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_minmax_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vminmaxps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), \
- (__v8sf)_mm256_setzero_ps(), (__mmask8)(U), (int)(R)))
-
#define _mm_minmax_sd(A, B, C) \
((__m128d)__builtin_ia32_vminmaxsd_round_mask( \
(__v2df)(__m128d)(A), (__v2df)(__m128d)(B), (int)(C), \
diff --git a/clang/lib/Headers/avx10_2niintrin.h b/clang/lib/Headers/avx10_2niintrin.h
index c91a7b57c7527..992be18f7720a 100644
--- a/clang/lib/Headers/avx10_2niintrin.h
+++ b/clang/lib/Headers/avx10_2niintrin.h
@@ -402,1672 +402,6 @@ static __inline__ __m256i __DEFAULT_FN_ATTRS256 _mm256_maskz_dpwuuds_epi32(
(__v8si)_mm256_setzero_si256());
}
-/* YMM Rounding */
-#define _mm256_add_round_pd(A, B, R) \
- ((__m256d)__builtin_ia32_vaddpd256_round((__v4df)(__m256d)(A), \
- (__v4df)(__m256d)(B), (int)(R)))
-
-#define _mm256_mask_add_round_pd(W, U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_add_round_pd((A), (B), (R)), \
- (__v4df)(__m256d)(W)))
-
-#define _mm256_maskz_add_round_pd(U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_add_round_pd((A), (B), (R)), \
- (__v4df)_mm256_setzero_pd()))
-
-#define _mm256_add_round_ph(A, B, R) \
- ((__m256h)__builtin_ia32_vaddph256_round((__v16hf)(__m256h)(A), \
- (__v16hf)(__m256h)(B), (int)(R)))
-
-#define _mm256_mask_add_round_ph(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_add_round_ph((A), (B), (R)), \
- (__v16hf)(__m256h)(W)))
-
-#define _mm256_maskz_add_round_ph(U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_add_round_ph((A), (B), (R)), \
- (__v16hf)_mm256_setzero_ph()))
-
-#define _mm256_add_round_ps(A, B, R) \
- ((__m256)__builtin_ia32_vaddps256_round((__v8sf)(__m256)(A), \
- (__v8sf)(__m256)(B), (int)(R)))
-
-#define _mm256_mask_add_round_ps(W, U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_add_round_ps((A), (B), (R)), \
- (__v8sf)(__m256)(W)))
-
-#define _mm256_maskz_add_round_ps(U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_add_round_ps((A), (B), (R)), \
- (__v8sf)_mm256_setzero_ps()))
-
-#define _mm256_cmp_round_pd_mask(A, B, P, R) \
- ((__mmask8)__builtin_ia32_vcmppd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(P), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cmp_round_pd_mask(U, A, B, P, R) \
- ((__mmask8)__builtin_ia32_vcmppd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(P), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cmp_round_ph_mask(A, B, P, R) \
- ((__mmask16)__builtin_ia32_vcmpph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (int)(P), (__mmask16)-1, \
- (int)(R)))
-
-#define _mm256_mask_cmp_round_ph_mask(U, A, B, P, R) \
- ((__mmask16)__builtin_ia32_vcmpph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (int)(P), (__mmask16)(U), \
- (int)(R)))
-
-#define _mm256_cmp_round_ps_mask(A, B, P, R) \
- ((__mmask8)__builtin_ia32_vcmpps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(P), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cmp_round_ps_mask(U, A, B, P, R) \
- ((__mmask8)__builtin_ia32_vcmpps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(P), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundepi32_ph(A, R) \
- ((__m128h)__builtin_ia32_vcvtdq2ph256_round_mask( \
- (__v8si)(A), (__v8hf)_mm_undefined_ph(), (__mmask8)(-1), (int)(R)))
-
-#define _mm256_mask_cvt_roundepi32_ph(W, U, A, R) \
- ((__m128h)__builtin_ia32_vcvtdq2ph256_round_mask((__v8si)(A), (__v8hf)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepi32_ph(U, A, R) \
- ((__m128h)__builtin_ia32_vcvtdq2ph256_round_mask( \
- (__v8si)(A), (__v8hf)_mm_setzero_ph(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundepi32_ps(A, R) \
- ((__m256)__builtin_ia32_vcvtdq2ps256_round_mask((__v8si)(__m256i)(A), \
- (__v8sf)_mm256_setzero_ps(), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_cvt_roundepi32_ps(W, U, A, R) \
- ((__m256)__builtin_ia32_vcvtdq2ps256_round_mask( \
- (__v8si)(__m256i)(A), (__v8sf)(__m256)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepi32_ps(U, A, R) \
- ((__m256)__builtin_ia32_vcvtdq2ps256_round_mask((__v8si)(__m256i)(A), \
- (__v8sf)_mm256_setzero_ps(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundpd_epi32(A, R) \
- ((__m128i)__builtin_ia32_vcvtpd2dq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4si)_mm_setzero_si128(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundpd_epi32(W, U, A, R) \
- ((__m128i)__builtin_ia32_vcvtpd2dq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4si)(__m128i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundpd_epi32(U, A, R) \
- ((__m128i)__builtin_ia32_vcvtpd2dq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4si)_mm_setzero_si128(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundpd_ph(A, R) \
- ((__m128h)__builtin_ia32_vcvtpd2ph256_round_mask( \
- (__v4df)(A), (__v8hf)_mm_undefined_ph(), (__mmask8)(-1), (int)(R)))
-
-#define _mm256_mask_cvt_roundpd_ph(W, U, A, R) \
- ((__m128h)__builtin_ia32_vcvtpd2ph256_round_mask((__v4df)(A), (__v8hf)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundpd_ph(U, A, R) \
- ((__m128h)__builtin_ia32_vcvtpd2ph256_round_mask( \
- (__v4df)(A), (__v8hf)_mm_setzero_ph(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundpd_ps(A, R) \
- ((__m128)__builtin_ia32_vcvtpd2ps256_round_mask( \
- (__v4df)(__m256d)(A), (__v4sf)_mm_setzero_ps(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_cvt_roundpd_ps(W, U, A, R) \
- ((__m128)__builtin_ia32_vcvtpd2ps256_round_mask( \
- (__v4df)(__m256d)(A), (__v4sf)(__m128)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundpd_ps(U, A, R) \
- ((__m128)__builtin_ia32_vcvtpd2ps256_round_mask((__v4df)(__m256d)(A), \
- (__v4sf)_mm_setzero_ps(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundpd_epi64(A, R) \
- ((__m256i)__builtin_ia32_vcvtpd2qq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundpd_epi64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtpd2qq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4di)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundpd_epi64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtpd2qq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundpd_epu32(A, R) \
- ((__m128i)__builtin_ia32_vcvtpd2udq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4su)_mm_setzero_si128(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundpd_epu32(W, U, A, R) \
- ((__m128i)__builtin_ia32_vcvtpd2udq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4su)(__m128i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundpd_epu32(U, A, R) \
- ((__m128i)__builtin_ia32_vcvtpd2udq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4su)_mm_setzero_si128(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundpd_epu64(A, R) \
- ((__m256i)__builtin_ia32_vcvtpd2uqq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundpd_epu64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtpd2uqq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4du)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundpd_epu64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtpd2uqq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundph_epi32(A, R) \
- ((__m256i)__builtin_ia32_vcvtph2dq256_round_mask( \
- (__v8hf)(A), (__v8si)_mm256_undefined_si256(), (__mmask8)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundph_epi32(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2dq256_round_mask((__v8hf)(A), (__v8si)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundph_epi32(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2dq256_round_mask( \
- (__v8hf)(A), (__v8si)_mm256_setzero_si256(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundph_pd(A, R) \
- ((__m256d)__builtin_ia32_vcvtph2pd256_round_mask( \
- (__v8hf)(A), (__v4df)_mm256_undefined_pd(), (__mmask8)(-1), (int)(R)))
-
-#define _mm256_mask_cvt_roundph_pd(W, U, A, R) \
- ((__m256d)__builtin_ia32_vcvtph2pd256_round_mask((__v8hf)(A), (__v4df)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundph_pd(U, A, R) \
- ((__m256d)__builtin_ia32_vcvtph2pd256_round_mask( \
- (__v8hf)(A), (__v4df)_mm256_setzero_pd(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvtx_roundph_ps(A, R) \
- ((__m256)__builtin_ia32_vcvtph2psx256_round_mask( \
- (__v8hf)(A), (__v8sf)_mm256_undefined_ps(), (__mmask8)(-1), (int)(R)))
-
-#define _mm256_mask_cvtx_roundph_ps(W, U, A, R) \
- ((__m256)__builtin_ia32_vcvtph2psx256_round_mask((__v8hf)(A), (__v8sf)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtx_roundph_ps(U, A, R) \
- ((__m256)__builtin_ia32_vcvtph2psx256_round_mask( \
- (__v8hf)(A), (__v8sf)_mm256_setzero_ps(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundph_epi64(A, R) \
- ((__m256i)__builtin_ia32_vcvtph2qq256_round_mask( \
- (__v8hf)(A), (__v4di)_mm256_undefined_si256(), (__mmask8)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundph_epi64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2qq256_round_mask((__v8hf)(A), (__v4di)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundph_epi64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2qq256_round_mask( \
- (__v8hf)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundph_epu32(A, R) \
- ((__m256i)__builtin_ia32_vcvtph2udq256_round_mask( \
- (__v8hf)(A), (__v8su)_mm256_undefined_si256(), (__mmask8)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundph_epu32(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2udq256_round_mask((__v8hf)(A), (__v8su)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundph_epu32(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2udq256_round_mask( \
- (__v8hf)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundph_epu64(A, R) \
- ((__m256i)__builtin_ia32_vcvtph2uqq256_round_mask( \
- (__v8hf)(A), (__v4du)_mm256_undefined_si256(), (__mmask8)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundph_epu64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2uqq256_round_mask((__v8hf)(A), (__v4du)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundph_epu64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2uqq256_round_mask( \
- (__v8hf)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundph_epu16(A, R) \
- ((__m256i)__builtin_ia32_vcvtph2uw256_round_mask( \
- (__v16hf)(A), (__v16hu)_mm256_undefined_si256(), (__mmask16)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundph_epu16(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2uw256_round_mask((__v16hf)(A), (__v16hu)(W), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundph_epu16(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2uw256_round_mask( \
- (__v16hf)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundph_epi16(A, R) \
- ((__m256i)__builtin_ia32_vcvtph2w256_round_mask( \
- (__v16hf)(A), (__v16hi)_mm256_undefined_si256(), (__mmask16)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundph_epi16(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2w256_round_mask((__v16hf)(A), (__v16hi)(W), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundph_epi16(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2w256_round_mask( \
- (__v16hf)(A), (__v16hi)_mm256_setzero_si256(), (__mmask16)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundps_epi32(A, R) \
- ((__m256i)__builtin_ia32_vcvtps2dq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8si)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundps_epi32(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2dq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8si)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundps_epi32(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2dq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8si)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundps_pd(A, R) \
- ((__m256d)__builtin_ia32_vcvtps2pd256_round_mask( \
- (__v4sf)(__m128)(A), (__v4df)_mm256_undefined_pd(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundps_pd(W, U, A, R) \
- ((__m256d)__builtin_ia32_vcvtps2pd256_round_mask( \
- (__v4sf)(__m128)(A), (__v4df)(__m256d)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundps_pd(U, A, R) \
- ((__m256d)__builtin_ia32_vcvtps2pd256_round_mask( \
- (__v4sf)(__m128)(A), (__v4df)_mm256_setzero_pd(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundps_ph(A, I) \
- ((__m128i)__builtin_ia32_vcvtps2ph256_mask((__v8sf)(__m256)(A), (int)(I), \
- (__v8hi)_mm_undefined_si128(), \
- (__mmask8)-1))
-
-/* FIXME: We may use these way in future.
-#define _mm256_cvt_roundps_ph(A, I) \
- ((__m128i)__builtin_ia32_vcvtps2ph256_round_mask( \
- (__v8sf)(__m256)(A), (int)(I), (__v8hi)_mm_undefined_si128(), \
- (__mmask8)-1))
-#define _mm256_mask_cvt_roundps_ph(U, W, A, I) \
- ((__m128i)__builtin_ia32_vcvtps2ph256_round_mask( \
- (__v8sf)(__m256)(A), (int)(I), (__v8hi)(__m128i)(U), (__mmask8)(W)))
-#define _mm256_maskz_cvt_roundps_ph(W, A, I) \
- ((__m128i)__builtin_ia32_vcvtps2ph256_round_mask( \
- (__v8sf)(__m256)(A), (int)(I), (__v8hi)_mm_setzero_si128(), \
- (__mmask8)(W))) */
-
-#define _mm256_cvtx_roundps_ph(A, R) \
- ((__m128h)__builtin_ia32_vcvtps2phx256_round_mask( \
- (__v8sf)(A), (__v8hf)_mm_undefined_ph(), (__mmask8)(-1), (int)(R)))
-
-#define _mm256_mask_cvtx_roundps_ph(W, U, A, R) \
- ((__m128h)__builtin_ia32_vcvtps2phx256_round_mask((__v8sf)(A), (__v8hf)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtx_roundps_ph(U, A, R) \
- ((__m128h)__builtin_ia32_vcvtps2phx256_round_mask( \
- (__v8sf)(A), (__v8hf)_mm_setzero_ph(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundps_epi64(A, R) \
- ((__m256i)__builtin_ia32_vcvtps2qq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundps_epi64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2qq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4di)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundps_epi64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2qq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundps_epu32(A, R) \
- ((__m256i)__builtin_ia32_vcvtps2udq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundps_epu32(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2udq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8su)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundps_epu32(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2udq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundps_epu64(A, R) \
- ((__m256i)__builtin_ia32_vcvtps2uqq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundps_epu64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2uqq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4du)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundps_epu64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2uqq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundepi64_pd(A, R) \
- ((__m256d)__builtin_ia32_vcvtqq2pd256_round_mask( \
- (__v4di)(__m256i)(A), (__v4df)_mm256_setzero_pd(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundepi64_pd(W, U, A, R) \
- ((__m256d)__builtin_ia32_vcvtqq2pd256_round_mask( \
- (__v4di)(__m256i)(A), (__v4df)(__m256d)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepi64_pd(U, A, R) \
- ((__m256d)__builtin_ia32_vcvtqq2pd256_round_mask( \
- (__v4di)(__m256i)(A), (__v4df)_mm256_setzero_pd(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundepi64_ph(A, R) \
- ((__m128h)__builtin_ia32_vcvtqq2ph256_round_mask( \
- (__v4di)(A), (__v8hf)_mm_undefined_ph(), (__mmask8)(-1), (int)(R)))
-
-#define _mm256_mask_cvt_roundepi64_ph(W, U, A, R) \
- ((__m128h)__builtin_ia32_vcvtqq2ph256_round_mask((__v4di)(A), (__v8hf)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepi64_ph(U, A, R) \
- ((__m128h)__builtin_ia32_vcvtqq2ph256_round_mask( \
- (__v4di)(A), (__v8hf)_mm_setzero_ph(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundepi64_ps(A, R) \
- ((__m128)__builtin_ia32_vcvtqq2ps256_round_mask( \
- (__v4di)(__m256i)(A), (__v4sf)_mm_setzero_ps(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_cvt_roundepi64_ps(W, U, A, R) \
- ((__m128)__builtin_ia32_vcvtqq2ps256_round_mask( \
- (__v4di)(__m256i)(A), (__v4sf)(__m128)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepi64_ps(U, A, R) \
- ((__m128)__builtin_ia32_vcvtqq2ps256_round_mask((__v4di)(__m256i)(A), \
- (__v4sf)_mm_setzero_ps(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvtt_roundpd_epi32(A, R) \
- ((__m128i)__builtin_ia32_vcvttpd2dq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4si)_mm_setzero_si128(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundpd_epi32(W, U, A, R) \
- ((__m128i)__builtin_ia32_vcvttpd2dq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4si)(__m128i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundpd_epi32(U, A, R) \
- ((__m128i)__builtin_ia32_vcvttpd2dq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4si)_mm_setzero_si128(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundpd_epi64(A, R) \
- ((__m256i)__builtin_ia32_vcvttpd2qq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundpd_epi64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttpd2qq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4di)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundpd_epi64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttpd2qq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundpd_epu32(A, R) \
- ((__m128i)__builtin_ia32_vcvttpd2udq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4su)_mm_setzero_si128(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundpd_epu32(W, U, A, R) \
- ((__m128i)__builtin_ia32_vcvttpd2udq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4su)(__m128i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundpd_epu32(U, A, R) \
- ((__m128i)__builtin_ia32_vcvttpd2udq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4su)_mm_setzero_si128(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundpd_epu64(A, R) \
- ((__m256i)__builtin_ia32_vcvttpd2uqq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundpd_epu64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttpd2uqq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4du)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundpd_epu64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttpd2uqq256_round_mask( \
- (__v4df)(__m256d)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundph_epi32(A, R) \
- ((__m256i)__builtin_ia32_vcvttph2dq256_round_mask( \
- (__v8hf)(A), (__v8si)_mm256_undefined_si256(), (__mmask8)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundph_epi32(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2dq256_round_mask((__v8hf)(A), (__v8si)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundph_epi32(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2dq256_round_mask( \
- (__v8hf)(A), (__v8si)_mm256_setzero_si256(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvtt_roundph_epi64(A, R) \
- ((__m256i)__builtin_ia32_vcvttph2qq256_round_mask( \
- (__v8hf)(A), (__v4di)_mm256_undefined_si256(), (__mmask8)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundph_epi64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2qq256_round_mask((__v8hf)(A), (__v4di)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundph_epi64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2qq256_round_mask( \
- (__v8hf)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvtt_roundph_epu32(A, R) \
- ((__m256i)__builtin_ia32_vcvttph2udq256_round_mask( \
- (__v8hf)(A), (__v8su)_mm256_undefined_si256(), (__mmask8)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundph_epu32(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2udq256_round_mask((__v8hf)(A), (__v8su)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundph_epu32(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2udq256_round_mask( \
- (__v8hf)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvtt_roundph_epu64(A, R) \
- ((__m256i)__builtin_ia32_vcvttph2uqq256_round_mask( \
- (__v8hf)(A), (__v4du)_mm256_undefined_si256(), (__mmask8)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundph_epu64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2uqq256_round_mask((__v8hf)(A), (__v4du)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundph_epu64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2uqq256_round_mask( \
- (__v8hf)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvtt_roundph_epu16(A, R) \
- ((__m256i)__builtin_ia32_vcvttph2uw256_round_mask( \
- (__v16hf)(A), (__v16hu)_mm256_undefined_si256(), (__mmask16)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundph_epu16(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2uw256_round_mask( \
- (__v16hf)(A), (__v16hu)(W), (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundph_epu16(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2uw256_round_mask( \
- (__v16hf)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundph_epi16(A, R) \
- ((__m256i)__builtin_ia32_vcvttph2w256_round_mask( \
- (__v16hf)(A), (__v16hi)_mm256_undefined_si256(), (__mmask16)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundph_epi16(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2w256_round_mask((__v16hf)(A), (__v16hi)(W), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundph_epi16(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2w256_round_mask( \
- (__v16hf)(A), (__v16hi)_mm256_setzero_si256(), (__mmask16)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundps_epi32(A, R) \
- ((__m256i)__builtin_ia32_vcvttps2dq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8si)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundps_epi32(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2dq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8si)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundps_epi32(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2dq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8si)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundps_epi64(A, R) \
- ((__m256i)__builtin_ia32_vcvttps2qq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundps_epi64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2qq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4di)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundps_epi64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2qq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4di)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundps_epu32(A, R) \
- ((__m256i)__builtin_ia32_vcvttps2udq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundps_epu32(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2udq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8su)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundps_epu32(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2udq256_round_mask( \
- (__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvtt_roundps_epu64(A, R) \
- ((__m256i)__builtin_ia32_vcvttps2uqq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvtt_roundps_epu64(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2uqq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4du)(__m256i)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvtt_roundps_epu64(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2uqq256_round_mask( \
- (__v4sf)(__m128)(A), (__v4du)_mm256_setzero_si256(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundepu32_ph(A, R) \
- ((__m128h)__builtin_ia32_vcvtudq2ph256_round_mask( \
- (__v8su)(A), (__v8hf)_mm_undefined_ph(), (__mmask8)(-1), (int)(R)))
-
-#define _mm256_mask_cvt_roundepu32_ph(W, U, A, R) \
- ((__m128h)__builtin_ia32_vcvtudq2ph256_round_mask((__v8su)(A), (__v8hf)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepu32_ph(U, A, R) \
- ((__m128h)__builtin_ia32_vcvtudq2ph256_round_mask( \
- (__v8su)(A), (__v8hf)_mm_setzero_ph(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundepu32_ps(A, R) \
- ((__m256)__builtin_ia32_vcvtudq2ps256_round_mask( \
- (__v8su)(__m256i)(A), (__v8sf)_mm256_setzero_ps(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundepu32_ps(W, U, A, R) \
- ((__m256)__builtin_ia32_vcvtudq2ps256_round_mask( \
- (__v8su)(__m256i)(A), (__v8sf)(__m256)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepu32_ps(U, A, R) \
- ((__m256)__builtin_ia32_vcvtudq2ps256_round_mask( \
- (__v8su)(__m256i)(A), (__v8sf)_mm256_setzero_ps(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundepu64_pd(A, R) \
- ((__m256d)__builtin_ia32_vcvtuqq2pd256_round_mask( \
- (__v4du)(__m256i)(A), (__v4df)_mm256_setzero_pd(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundepu64_pd(W, U, A, R) \
- ((__m256d)__builtin_ia32_vcvtuqq2pd256_round_mask( \
- (__v4du)(__m256i)(A), (__v4df)(__m256d)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepu64_pd(U, A, R) \
- ((__m256d)__builtin_ia32_vcvtuqq2pd256_round_mask( \
- (__v4du)(__m256i)(A), (__v4df)_mm256_setzero_pd(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_cvt_roundepu64_ph(A, R) \
- ((__m128h)__builtin_ia32_vcvtuqq2ph256_round_mask( \
- (__v4du)(A), (__v8hf)_mm_undefined_ph(), (__mmask8)(-1), (int)(R)))
-
-#define _mm256_mask_cvt_roundepu64_ph(W, U, A, R) \
- ((__m128h)__builtin_ia32_vcvtuqq2ph256_round_mask((__v4du)(A), (__v8hf)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepu64_ph(U, A, R) \
- ((__m128h)__builtin_ia32_vcvtuqq2ph256_round_mask( \
- (__v4du)(A), (__v8hf)_mm_setzero_ph(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundepu64_ps(A, R) \
- ((__m128)__builtin_ia32_vcvtuqq2ps256_round_mask( \
- (__v4du)(__m256i)(A), (__v4sf)_mm_setzero_ps(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_cvt_roundepu64_ps(W, U, A, R) \
- ((__m128)__builtin_ia32_vcvtuqq2ps256_round_mask( \
- (__v4du)(__m256i)(A), (__v4sf)(__m128)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepu64_ps(U, A, R) \
- ((__m128)__builtin_ia32_vcvtuqq2ps256_round_mask((__v4du)(__m256i)(A), \
- (__v4sf)_mm_setzero_ps(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_cvt_roundepu16_ph(A, R) \
- ((__m256h)__builtin_ia32_vcvtuw2ph256_round_mask( \
- (__v16hu)(A), (__v16hf)_mm256_undefined_ph(), (__mmask16)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundepu16_ph(W, U, A, R) \
- ((__m256h)__builtin_ia32_vcvtuw2ph256_round_mask((__v16hu)(A), (__v16hf)(W), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepu16_ph(U, A, R) \
- ((__m256h)__builtin_ia32_vcvtuw2ph256_round_mask( \
- (__v16hu)(A), (__v16hf)_mm256_setzero_ph(), (__mmask16)(U), (int)(R)))
-
-#define _mm256_cvt_roundepi16_ph(A, R) \
- ((__m256h)__builtin_ia32_vcvtw2ph256_round_mask( \
- (__v16hi)(A), (__v16hf)_mm256_undefined_ph(), (__mmask16)(-1), \
- (int)(R)))
-
-#define _mm256_mask_cvt_roundepi16_ph(W, U, A, R) \
- ((__m256h)__builtin_ia32_vcvtw2ph256_round_mask((__v16hi)(A), (__v16hf)(W), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_cvt_roundepi16_ph(U, A, R) \
- ((__m256h)__builtin_ia32_vcvtw2ph256_round_mask( \
- (__v16hi)(A), (__v16hf)_mm256_setzero_ph(), (__mmask16)(U), (int)(R)))
-
-#define _mm256_div_round_pd(A, B, R) \
- ((__m256d)__builtin_ia32_vdivpd256_round((__v4df)(__m256d)(A), \
- (__v4df)(__m256d)(B), (int)(R)))
-
-#define _mm256_mask_div_round_pd(W, U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_div_round_pd((A), (B), (R)), \
- (__v4df)(__m256d)(W)))
-
-#define _mm256_maskz_div_round_pd(U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_div_round_pd((A), (B), (R)), \
- (__v4df)_mm256_setzero_pd()))
-
-#define _mm256_div_round_ph(A, B, R) \
- ((__m256h)__builtin_ia32_vdivph256_round((__v16hf)(__m256h)(A), \
- (__v16hf)(__m256h)(B), (int)(R)))
-
-#define _mm256_mask_div_round_ph(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_div_round_ph((A), (B), (R)), \
- (__v16hf)(__m256h)(W)))
-
-#define _mm256_maskz_div_round_ph(U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_div_round_ph((A), (B), (R)), \
- (__v16hf)_mm256_setzero_ph()))
-
-#define _mm256_div_round_ps(A, B, R) \
- ((__m256)__builtin_ia32_vdivps256_round((__v8sf)(__m256)(A), \
- (__v8sf)(__m256)(B), (int)(R)))
-
-#define _mm256_mask_div_round_ps(W, U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_div_round_ps((A), (B), (R)), \
- (__v8sf)(__m256)(W)))
-
-#define _mm256_maskz_div_round_ps(U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_div_round_ps((A), (B), (R)), \
- (__v8sf)_mm256_setzero_ps()))
-
-#define _mm256_fcmadd_round_pch(A, B, C, R) \
- ((__m256h)__builtin_ia32_vfcmaddcph256_round_mask3( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fcmadd_round_pch(A, U, B, C, R) \
- ((__m256h)__builtin_ia32_vfcmaddcph256_round_mask( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fcmadd_round_pch(A, B, C, U, R) \
- ((__m256h)__builtin_ia32_vfcmaddcph256_round_mask3( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fcmadd_round_pch(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vfcmaddcph256_round_maskz( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_cmul_round_pch(A, B, R) \
- ((__m256h)__builtin_ia32_vfcmulcph256_round_mask( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), \
- (__v8sf)(__m256h)_mm256_undefined_ph(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_cmul_round_pch(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_vfcmulcph256_round_mask( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_cmul_round_pch(U, A, B, R) \
- ((__m256h)__builtin_ia32_vfcmulcph256_round_mask( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), \
- (__v8sf)(__m256h)_mm256_setzero_ph(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_fixupimm_round_pd(A, B, C, imm, R) \
- ((__m256d)__builtin_ia32_vfixupimmpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4di)(__m256i)(C), \
- (int)(imm), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fixupimm_round_pd(A, U, B, C, imm, R) \
- ((__m256d)__builtin_ia32_vfixupimmpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4di)(__m256i)(C), \
- (int)(imm), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fixupimm_round_pd(U, A, B, C, imm, R) \
- ((__m256d)__builtin_ia32_vfixupimmpd256_round_maskz( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4di)(__m256i)(C), \
- (int)(imm), (__mmask8)(U), (int)(R)))
-
-#define _mm256_fixupimm_round_ps(A, B, C, imm, R) \
- ((__m256)__builtin_ia32_vfixupimmps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8si)(__m256i)(C), \
- (int)(imm), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fixupimm_round_ps(A, U, B, C, imm, R) \
- ((__m256)__builtin_ia32_vfixupimmps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8si)(__m256i)(C), \
- (int)(imm), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fixupimm_round_ps(U, A, B, C, imm, R) \
- ((__m256)__builtin_ia32_vfixupimmps256_round_maskz( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8si)(__m256i)(C), \
- (int)(imm), (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmadd_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmadd_round_pd(A, U, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fmadd_round_pd(A, B, C, U, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask3( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmadd_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_maskz( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmsub_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmsub_round_pd(A, U, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmsub_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_maskz( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fnmadd_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask( \
- -(__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask3_fnmadd_round_pd(A, B, C, U, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask3( \
- -(__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fnmadd_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_maskz( \
- -(__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fnmsub_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask( \
- -(__v4df)(__m256d)(A), (__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_maskz_fnmsub_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_maskz( \
- -(__v4df)(__m256d)(A), (__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmadd_round_ph(A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask_fmadd_round_ph(A, U, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_mask3_fmadd_round_ph(A, B, C, U, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask3( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_fmadd_round_ph(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_maskz( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_fmsub_round_ph(A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask_fmsub_round_ph(A, U, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_fmsub_round_ph(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_maskz( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_fnmadd_round_ph(A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask( \
- (__v16hf)(__m256h)(A), -(__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask3_fnmadd_round_ph(A, B, C, U, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask3( \
- -(__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_fnmadd_round_ph(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_maskz( \
- -(__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_fnmsub_round_ph(A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask( \
- (__v16hf)(__m256h)(A), -(__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)-1, (int)(R)))
-
-#define _mm256_maskz_fnmsub_round_ph(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_maskz( \
- -(__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_fmadd_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmadd_round_ps(A, U, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fmadd_round_ps(A, B, C, U, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask3( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmadd_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_maskz( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmsub_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmsub_round_ps(A, U, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmsub_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_maskz( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fnmadd_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask( \
- (__v8sf)(__m256)(A), -(__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask3_fnmadd_round_ps(A, B, C, U, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask3( \
- -(__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fnmadd_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_maskz( \
- -(__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fnmsub_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask( \
- (__v8sf)(__m256)(A), -(__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_maskz_fnmsub_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_maskz( \
- -(__v8sf)(__m256)(A), (__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmadd_round_pch(A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddcph256_round_mask3( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmadd_round_pch(A, U, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddcph256_round_mask( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fmadd_round_pch(A, B, C, U, R) \
- ((__m256h)__builtin_ia32_vfmaddcph256_round_mask3( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmadd_round_pch(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddcph256_round_maskz( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmaddsub_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddsubpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmaddsub_round_pd(A, U, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddsubpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fmaddsub_round_pd(A, B, C, U, R) \
- ((__m256d)__builtin_ia32_vfmaddsubpd256_round_mask3( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmaddsub_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddsubpd256_round_maskz( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmsubadd_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddsubpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmsubadd_round_pd(A, U, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddsubpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmsubadd_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddsubpd256_round_maskz( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmaddsub_round_ph(A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddsubph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask_fmaddsub_round_ph(A, U, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddsubph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_mask3_fmaddsub_round_ph(A, B, C, U, R) \
- ((__m256h)__builtin_ia32_vfmaddsubph256_round_mask3( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_fmaddsub_round_ph(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddsubph256_round_maskz( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_fmsubadd_round_ph(A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddsubph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask_fmsubadd_round_ph(A, U, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddsubph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_fmsubadd_round_ph(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddsubph256_round_maskz( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_fmaddsub_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddsubps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmaddsub_round_ps(A, U, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddsubps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fmaddsub_round_ps(A, B, C, U, R) \
- ((__m256)__builtin_ia32_vfmaddsubps256_round_mask3( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmaddsub_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddsubps256_round_maskz( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_fmsubadd_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddsubps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_fmsubadd_round_ps(A, U, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddsubps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_fmsubadd_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddsubps256_round_maskz( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-#define _mm256_mask3_fmsub_round_pd(A, B, C, U, R) \
- ((__m256d)__builtin_ia32_vfmsubpd256_round_mask3( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fmsubadd_round_pd(A, B, C, U, R) \
- ((__m256d)__builtin_ia32_vfmsubaddpd256_round_mask3( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask_fnmadd_round_pd(A, U, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask( \
- (__v4df)(__m256d)(A), -(__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask_fnmsub_round_pd(A, U, B, C, R) \
- ((__m256d)__builtin_ia32_vfmaddpd256_round_mask( \
- (__v4df)(__m256d)(A), -(__v4df)(__m256d)(B), -(__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fnmsub_round_pd(A, B, C, U, R) \
- ((__m256d)__builtin_ia32_vfmsubpd256_round_mask3( \
- -(__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fmsub_round_ph(A, B, C, U, R) \
- ((__m256h)__builtin_ia32_vfmsubph256_round_mask3( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_mask3_fmsubadd_round_ph(A, B, C, U, R) \
- ((__m256h)__builtin_ia32_vfmsubaddph256_round_mask3( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_mask_fnmadd_round_ph(A, U, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask( \
- (__v16hf)(__m256h)(A), -(__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_mask_fnmsub_round_ph(A, U, B, C, R) \
- ((__m256h)__builtin_ia32_vfmaddph256_round_mask( \
- (__v16hf)(__m256h)(A), -(__v16hf)(__m256h)(B), -(__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_mask3_fnmsub_round_ph(A, B, C, U, R) \
- ((__m256h)__builtin_ia32_vfmsubph256_round_mask3( \
- -(__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(C), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_mask3_fmsub_round_ps(A, B, C, U, R) \
- ((__m256)__builtin_ia32_vfmsubps256_round_mask3( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fmsubadd_round_ps(A, B, C, U, R) \
- ((__m256)__builtin_ia32_vfmsubaddps256_round_mask3( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask_fnmadd_round_ps(A, U, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask( \
- (__v8sf)(__m256)(A), -(__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask_fnmsub_round_ps(A, U, B, C, R) \
- ((__m256)__builtin_ia32_vfmaddps256_round_mask( \
- (__v8sf)(__m256)(A), -(__v8sf)(__m256)(B), -(__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask3_fnmsub_round_ps(A, B, C, U, R) \
- ((__m256)__builtin_ia32_vfmsubps256_round_mask3( \
- -(__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(C), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mul_round_pch(A, B, R) \
- ((__m256h)__builtin_ia32_vfmulcph256_round_mask( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), \
- (__v8sf)(__m256h)_mm256_undefined_ph(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_mul_round_pch(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_vfmulcph256_round_mask( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), (__v8sf)(__m256h)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_mul_round_pch(U, A, B, R) \
- ((__m256h)__builtin_ia32_vfmulcph256_round_mask( \
- (__v8sf)(__m256h)(A), (__v8sf)(__m256h)(B), \
- (__v8sf)(__m256h)_mm256_setzero_ph(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_getexp_round_pd(A, R) \
- ((__m256d)__builtin_ia32_vgetexppd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)_mm256_undefined_pd(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_getexp_round_pd(W, U, A, R) \
- ((__m256d)__builtin_ia32_vgetexppd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_getexp_round_pd(U, A, R) \
- ((__m256d)__builtin_ia32_vgetexppd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)_mm256_setzero_pd(), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_getexp_round_ph(A, R) \
- ((__m256h)__builtin_ia32_vgetexpph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)_mm256_undefined_ph(), (__mmask16)-1, \
- (int)(R)))
-
-#define _mm256_mask_getexp_round_ph(W, U, A, R) \
- ((__m256h)__builtin_ia32_vgetexpph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(W), (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_getexp_round_ph(U, A, R) \
- ((__m256h)__builtin_ia32_vgetexpph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)_mm256_setzero_ph(), (__mmask16)(U), \
- (int)(R)))
-
-#define _mm256_getexp_round_ps(A, R) \
- ((__m256)__builtin_ia32_vgetexpps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)_mm256_undefined_ps(), (__mmask8)-1, \
- (int)(R)))
-
-#define _mm256_mask_getexp_round_ps(W, U, A, R) \
- ((__m256)__builtin_ia32_vgetexpps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_getexp_round_ps(U, A, R) \
- ((__m256)__builtin_ia32_vgetexpps256_round_mask((__v8sf)(__m256)(A), \
- (__v8sf)_mm256_setzero_ps(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_getmant_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vgetmantpd256_round_mask( \
- (__v4df)(__m256d)(A), (int)(((C) << 2) | (B)), \
- (__v4df)_mm256_undefined_pd(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_getmant_round_pd(W, U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vgetmantpd256_round_mask( \
- (__v4df)(__m256d)(A), (int)(((C) << 2) | (B)), (__v4df)(__m256d)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_getmant_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vgetmantpd256_round_mask( \
- (__v4df)(__m256d)(A), (int)(((C) << 2) | (B)), \
- (__v4df)_mm256_setzero_pd(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_getmant_round_ph(A, B, C, R) \
- ((__m256h)__builtin_ia32_vgetmantph256_round_mask( \
- (__v16hf)(__m256h)(A), (int)(((C) << 2) | (B)), \
- (__v16hf)_mm256_undefined_ph(), (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask_getmant_round_ph(W, U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vgetmantph256_round_mask( \
- (__v16hf)(__m256h)(A), (int)(((C) << 2) | (B)), (__v16hf)(__m256h)(W), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_getmant_round_ph(U, A, B, C, R) \
- ((__m256h)__builtin_ia32_vgetmantph256_round_mask( \
- (__v16hf)(__m256h)(A), (int)(((C) << 2) | (B)), \
- (__v16hf)_mm256_setzero_ph(), (__mmask16)(U), (int)(R)))
-
-#define _mm256_getmant_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vgetmantps256_round_mask( \
- (__v8sf)(__m256)(A), (int)(((C) << 2) | (B)), \
- (__v8sf)_mm256_undefined_ps(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_getmant_round_ps(W, U, A, B, C, R) \
- ((__m256)__builtin_ia32_vgetmantps256_round_mask( \
- (__v8sf)(__m256)(A), (int)(((C) << 2) | (B)), (__v8sf)(__m256)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_getmant_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vgetmantps256_round_mask( \
- (__v8sf)(__m256)(A), (int)(((C) << 2) | (B)), \
- (__v8sf)_mm256_setzero_ps(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_max_round_pd(A, B, R) \
- ((__m256d)__builtin_ia32_vmaxpd256_round((__v4df)(__m256d)(A), \
- (__v4df)(__m256d)(B), (int)(R)))
-
-#define _mm256_mask_max_round_pd(W, U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_max_round_pd((A), (B), (R)), \
- (__v4df)(__m256d)(W)))
-
-#define _mm256_maskz_max_round_pd(U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_max_round_pd((A), (B), (R)), \
- (__v4df)_mm256_setzero_pd()))
-
-#define _mm256_max_round_ph(A, B, R) \
- ((__m256h)__builtin_ia32_vmaxph256_round((__v16hf)(__m256h)(A), \
- (__v16hf)(__m256h)(B), (int)(R)))
-
-#define _mm256_mask_max_round_ph(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_max_round_ph((A), (B), (R)), \
- (__v16hf)(__m256h)(W)))
-
-#define _mm256_maskz_max_round_ph(U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_max_round_ph((A), (B), (R)), \
- (__v16hf)_mm256_setzero_ph()))
-
-#define _mm256_max_round_ps(A, B, R) \
- ((__m256)__builtin_ia32_vmaxps256_round((__v8sf)(__m256)(A), \
- (__v8sf)(__m256)(B), (int)(R)))
-
-#define _mm256_mask_max_round_ps(W, U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_max_round_ps((A), (B), (R)), \
- (__v8sf)(__m256)(W)))
-
-#define _mm256_maskz_max_round_ps(U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_max_round_ps((A), (B), (R)), \
- (__v8sf)_mm256_setzero_ps()))
-
-#define _mm256_min_round_pd(A, B, R) \
- ((__m256d)__builtin_ia32_vminpd256_round((__v4df)(__m256d)(A), \
- (__v4df)(__m256d)(B), (int)(R)))
-
-#define _mm256_mask_min_round_pd(W, U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_min_round_pd((A), (B), (R)), \
- (__v4df)(__m256d)(W)))
-
-#define _mm256_maskz_min_round_pd(U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_min_round_pd((A), (B), (R)), \
- (__v4df)_mm256_setzero_pd()))
-
-#define _mm256_min_round_ph(A, B, R) \
- ((__m256h)__builtin_ia32_vminph256_round((__v16hf)(__m256h)(A), \
- (__v16hf)(__m256h)(B), (int)(R)))
-
-#define _mm256_mask_min_round_ph(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_min_round_ph((A), (B), (R)), \
- (__v16hf)(__m256h)(W)))
-
-#define _mm256_maskz_min_round_ph(U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_min_round_ph((A), (B), (R)), \
- (__v16hf)_mm256_setzero_ph()))
-
-#define _mm256_min_round_ps(A, B, R) \
- ((__m256)__builtin_ia32_vminps256_round((__v8sf)(__m256)(A), \
- (__v8sf)(__m256)(B), (int)(R)))
-
-#define _mm256_mask_min_round_ps(W, U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_min_round_ps((A), (B), (R)), \
- (__v8sf)(__m256)(W)))
-
-#define _mm256_maskz_min_round_ps(U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_min_round_ps((A), (B), (R)), \
- (__v8sf)_mm256_setzero_ps()))
-
-#define _mm256_mul_round_pd(A, B, R) \
- ((__m256d)__builtin_ia32_vmulpd256_round((__v4df)(__m256d)(A), \
- (__v4df)(__m256d)(B), (int)(R)))
-
-#define _mm256_mask_mul_round_pd(W, U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_mul_round_pd((A), (B), (R)), \
- (__v4df)(__m256d)(W)))
-
-#define _mm256_maskz_mul_round_pd(U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_mul_round_pd((A), (B), (R)), \
- (__v4df)_mm256_setzero_pd()))
-
-#define _mm256_mul_round_ph(A, B, R) \
- ((__m256h)__builtin_ia32_vmulph256_round((__v16hf)(__m256h)(A), \
- (__v16hf)(__m256h)(B), (int)(R)))
-
-#define _mm256_mask_mul_round_ph(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_mul_round_ph((A), (B), (R)), \
- (__v16hf)(__m256h)(W)))
-
-#define _mm256_maskz_mul_round_ph(U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_mul_round_ph((A), (B), (R)), \
- (__v16hf)_mm256_setzero_ph()))
-
-#define _mm256_mul_round_ps(A, B, R) \
- ((__m256)__builtin_ia32_vmulps256_round((__v8sf)(__m256)(A), \
- (__v8sf)(__m256)(B), (int)(R)))
-
-#define _mm256_mask_mul_round_ps(W, U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_mul_round_ps((A), (B), (R)), \
- (__v8sf)(__m256)(W)))
-
-#define _mm256_maskz_mul_round_ps(U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_mul_round_ps((A), (B), (R)), \
- (__v8sf)_mm256_setzero_ps()))
-
-#define _mm256_range_round_pd(A, B, C, R) \
- ((__m256d)__builtin_ia32_vrangepd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), \
- (__v4df)_mm256_setzero_pd(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_range_round_pd(W, U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vrangepd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), \
- (__v4df)(__m256d)(W), (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_range_round_pd(U, A, B, C, R) \
- ((__m256d)__builtin_ia32_vrangepd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (int)(C), \
- (__v4df)_mm256_setzero_pd(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_range_round_ps(A, B, C, R) \
- ((__m256)__builtin_ia32_vrangeps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), \
- (__v8sf)_mm256_setzero_ps(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_range_round_ps(W, U, A, B, C, R) \
- ((__m256)__builtin_ia32_vrangeps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), (__v8sf)(__m256)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_range_round_ps(U, A, B, C, R) \
- ((__m256)__builtin_ia32_vrangeps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (int)(C), \
- (__v8sf)_mm256_setzero_ps(), (__mmask8)(U), (int)(R)))
-
-#define _mm256_reduce_round_pd(A, B, R) \
- ((__m256d)__builtin_ia32_vreducepd256_round_mask( \
- (__v4df)(__m256d)(A), (int)(B), (__v4df)_mm256_setzero_pd(), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_reduce_round_pd(W, U, A, B, R) \
- ((__m256d)__builtin_ia32_vreducepd256_round_mask( \
- (__v4df)(__m256d)(A), (int)(B), (__v4df)(__m256d)(W), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_maskz_reduce_round_pd(U, A, B, R) \
- ((__m256d)__builtin_ia32_vreducepd256_round_mask( \
- (__v4df)(__m256d)(A), (int)(B), (__v4df)_mm256_setzero_pd(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_mask_reduce_round_ph(W, U, A, imm, R) \
- ((__m256h)__builtin_ia32_vreduceph256_round_mask( \
- (__v16hf)(__m256h)(A), (int)(imm), (__v16hf)(__m256h)(W), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_reduce_round_ph(U, A, imm, R) \
- ((__m256h)__builtin_ia32_vreduceph256_round_mask( \
- (__v16hf)(__m256h)(A), (int)(imm), (__v16hf)_mm256_setzero_ph(), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_reduce_round_ph(A, imm, R) \
- ((__m256h)__builtin_ia32_vreduceph256_round_mask( \
- (__v16hf)(__m256h)(A), (int)(imm), (__v16hf)_mm256_undefined_ph(), \
- (__mmask16)-1, (int)(R)))
-
-#define _mm256_reduce_round_ps(A, B, R) \
- ((__m256)__builtin_ia32_vreduceps256_round_mask( \
- (__v8sf)(__m256)(A), (int)(B), (__v8sf)_mm256_setzero_ps(), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_reduce_round_ps(W, U, A, B, R) \
- ((__m256)__builtin_ia32_vreduceps256_round_mask( \
- (__v8sf)(__m256)(A), (int)(B), (__v8sf)(__m256)(W), (__mmask8)(U), \
- (int)(R)))
-
-#define _mm256_maskz_reduce_round_ps(U, A, B, R) \
- ((__m256)__builtin_ia32_vreduceps256_round_mask( \
- (__v8sf)(__m256)(A), (int)(B), (__v8sf)_mm256_setzero_ps(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_roundscale_round_pd(A, imm, R) \
- ((__m256d)__builtin_ia32_vrndscalepd256_round_mask( \
- (__v4df)(__m256d)(A), (int)(imm), (__v4df)_mm256_undefined_pd(), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_roundscale_round_pd(A, B, C, imm, R) \
- ((__m256d)__builtin_ia32_vrndscalepd256_round_mask( \
- (__v4df)(__m256d)(C), (int)(imm), (__v4df)(__m256d)(A), (__mmask8)(B), \
- (int)(R)))
-
-#define _mm256_maskz_roundscale_round_pd(A, B, imm, R) \
- ((__m256d)__builtin_ia32_vrndscalepd256_round_mask( \
- (__v4df)(__m256d)(B), (int)(imm), (__v4df)_mm256_setzero_pd(), \
- (__mmask8)(A), (int)(R)))
-
-#define _mm256_roundscale_round_ph(A, imm, R) \
- ((__m256h)__builtin_ia32_vrndscaleph256_round_mask( \
- (__v16hf)(__m256h)(A), (int)(imm), (__v16hf)_mm256_undefined_ph(), \
- (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask_roundscale_round_ph(A, B, C, imm, R) \
- ((__m256h)__builtin_ia32_vrndscaleph256_round_mask( \
- (__v16hf)(__m256h)(C), (int)(imm), (__v16hf)(__m256h)(A), \
- (__mmask16)(B), (int)(R)))
-
-#define _mm256_maskz_roundscale_round_ph(A, B, imm, R) \
- ((__m256h)__builtin_ia32_vrndscaleph256_round_mask( \
- (__v16hf)(__m256h)(B), (int)(imm), (__v16hf)_mm256_setzero_ph(), \
- (__mmask16)(A), (int)(R)))
-
-#define _mm256_roundscale_round_ps(A, imm, R) \
- ((__m256)__builtin_ia32_vrndscaleps256_round_mask( \
- (__v8sf)(__m256)(A), (int)(imm), (__v8sf)_mm256_undefined_ps(), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_roundscale_round_ps(A, B, C, imm, R) \
- ((__m256)__builtin_ia32_vrndscaleps256_round_mask( \
- (__v8sf)(__m256)(C), (int)(imm), (__v8sf)(__m256)(A), (__mmask8)(B), \
- (int)(R)))
-
-#define _mm256_maskz_roundscale_round_ps(A, B, imm, R) \
- ((__m256)__builtin_ia32_vrndscaleps256_round_mask( \
- (__v8sf)(__m256)(B), (int)(imm), (__v8sf)_mm256_setzero_ps(), \
- (__mmask8)(A), (int)(R)))
-
-#define _mm256_scalef_round_pd(A, B, R) \
- ((__m256d)__builtin_ia32_vscalefpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), \
- (__v4df)_mm256_undefined_pd(), (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_scalef_round_pd(W, U, A, B, R) \
- ((__m256d)__builtin_ia32_vscalefpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)(__m256d)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_scalef_round_pd(U, A, B, R) \
- ((__m256d)__builtin_ia32_vscalefpd256_round_mask( \
- (__v4df)(__m256d)(A), (__v4df)(__m256d)(B), (__v4df)_mm256_setzero_pd(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_scalef_round_ph(A, B, R) \
- ((__m256h)__builtin_ia32_vscalefph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), \
- (__v16hf)_mm256_undefined_ph(), (__mmask16)-1, (int)(R)))
-
-#define _mm256_mask_scalef_round_ph(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_vscalefph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), (__v16hf)(__m256h)(W), \
- (__mmask16)(U), (int)(R)))
-
-#define _mm256_maskz_scalef_round_ph(U, A, B, R) \
- ((__m256h)__builtin_ia32_vscalefph256_round_mask( \
- (__v16hf)(__m256h)(A), (__v16hf)(__m256h)(B), \
- (__v16hf)_mm256_setzero_ph(), (__mmask16)(U), (int)(R)))
-
-#define _mm256_scalef_round_ps(A, B, R) \
- ((__m256)__builtin_ia32_vscalefps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)_mm256_undefined_ps(), \
- (__mmask8)-1, (int)(R)))
-
-#define _mm256_mask_scalef_round_ps(W, U, A, B, R) \
- ((__m256)__builtin_ia32_vscalefps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)(__m256)(W), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_maskz_scalef_round_ps(U, A, B, R) \
- ((__m256)__builtin_ia32_vscalefps256_round_mask( \
- (__v8sf)(__m256)(A), (__v8sf)(__m256)(B), (__v8sf)_mm256_setzero_ps(), \
- (__mmask8)(U), (int)(R)))
-
-#define _mm256_sqrt_round_pd(A, R) \
- ((__m256d)__builtin_ia32_vsqrtpd256_round((__v4df)(__m256d)(A), (int)(R)))
-
-#define _mm256_mask_sqrt_round_pd(W, U, A, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_sqrt_round_pd((A), (R)), \
- (__v4df)(__m256d)(W)))
-
-#define _mm256_maskz_sqrt_round_pd(U, A, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_sqrt_round_pd((A), (R)), \
- (__v4df)_mm256_setzero_pd()))
-
-#define _mm256_sqrt_round_ph(A, R) \
- ((__m256h)__builtin_ia32_vsqrtph256_round((__v16hf)(__m256h)(A), (int)(R)))
-
-#define _mm256_mask_sqrt_round_ph(W, U, A, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_sqrt_round_ph((A), (R)), \
- (__v16hf)(__m256h)(W)))
-
-#define _mm256_maskz_sqrt_round_ph(U, A, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_sqrt_round_ph((A), (R)), \
- (__v16hf)_mm256_setzero_ph()))
-
-#define _mm256_sqrt_round_ps(A, R) \
- ((__m256)__builtin_ia32_vsqrtps256_round((__v8sf)(__m256)(A), (int)(R)))
-
-#define _mm256_mask_sqrt_round_ps(W, U, A, R) \
- ((__m256)__builtin_ia32_selectps_256((__mmask8)(U), \
- (__v8sf)_mm256_sqrt_round_ps((A), (R)), \
- (__v8sf)(__m256)(W)))
-
-#define _mm256_maskz_sqrt_round_ps(U, A, R) \
- ((__m256)__builtin_ia32_selectps_256((__mmask8)(U), \
- (__v8sf)_mm256_sqrt_round_ps((A), (R)), \
- (__v8sf)_mm256_setzero_ps()))
-
-#define _mm256_sub_round_pd(A, B, R) \
- ((__m256d)__builtin_ia32_vsubpd256_round((__v4df)(__m256d)(A), \
- (__v4df)(__m256d)(B), (int)(R)))
-
-#define _mm256_mask_sub_round_pd(W, U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_sub_round_pd((A), (B), (R)), \
- (__v4df)(__m256d)(W)))
-
-#define _mm256_maskz_sub_round_pd(U, A, B, R) \
- ((__m256d)__builtin_ia32_selectpd_256( \
- (__mmask8)(U), (__v4df)_mm256_sub_round_pd((A), (B), (R)), \
- (__v4df)_mm256_setzero_pd()))
-
-#define _mm256_sub_round_ph(A, B, R) \
- ((__m256h)__builtin_ia32_vsubph256_round((__v16hf)(__m256h)(A), \
- (__v16hf)(__m256h)(B), (int)(R)))
-
-#define _mm256_mask_sub_round_ph(W, U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_sub_round_ph((A), (B), (R)), \
- (__v16hf)(__m256h)(W)))
-
-#define _mm256_maskz_sub_round_ph(U, A, B, R) \
- ((__m256h)__builtin_ia32_selectph_256( \
- (__mmask16)(U), (__v16hf)_mm256_sub_round_ph((A), (B), (R)), \
- (__v16hf)_mm256_setzero_ph()))
-
-#define _mm256_sub_round_ps(A, B, R) \
- ((__m256)__builtin_ia32_vsubps256_round((__v8sf)(__m256)(A), \
- (__v8sf)(__m256)(B), (int)(R)))
-
-#define _mm256_mask_sub_round_ps(W, U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_sub_round_ps((A), (B), (R)), \
- (__v8sf)(__m256)(W)))
-
-#define _mm256_maskz_sub_round_ps(U, A, B, R) \
- ((__m256)__builtin_ia32_selectps_256( \
- (__mmask8)(U), (__v8sf)_mm256_sub_round_ps((A), (B), (R)), \
- (__v8sf)_mm256_setzero_ps()))
-
#undef __DEFAULT_FN_ATTRS256
#undef __DEFAULT_FN_ATTRS128
diff --git a/clang/lib/Headers/avx10_2satcvtdsintrin.h b/clang/lib/Headers/avx10_2satcvtdsintrin.h
index 59028436311e7..9124287487212 100644
--- a/clang/lib/Headers/avx10_2satcvtdsintrin.h
+++ b/clang/lib/Headers/avx10_2satcvtdsintrin.h
@@ -71,175 +71,138 @@
#endif /* __x86_64__ */
// 128 Bit : Double -> int
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvttspd_epi32(__m128d __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128
+_mm_cvtts_pd_epi32(__m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2dqs128_mask(
(__v2df)__A, (__v4si)(__m128i)_mm_undefined_si128(), (__mmask8)(-1)));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvttspd_epi32(__m128i __W, __mmask8 __U, __m128d __A) {
+_mm_mask_cvtts_pd_epi32(__m128i __W, __mmask8 __U, __m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2dqs128_mask((__v2df)__A, (__v4si)__W,
__U));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvttspd_epi32(__mmask16 __U, __m128d __A) {
+_mm_maskz_cvtts_pd_epi32(__mmask16 __U, __m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2dqs128_mask(
(__v2df)__A, (__v4si)(__m128i)_mm_setzero_si128(), __U));
}
// 256 Bit : Double -> int
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_cvttspd_epi32(__m256d __A) {
+_mm256_cvtts_pd_epi32(__m256d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2dqs256_round_mask(
(__v4df)__A, (__v4si)_mm_undefined_si128(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvttspd_epi32(__m128i __W, __mmask8 __U, __m256d __A) {
+_mm256_mask_cvtts_pd_epi32(__m128i __W, __mmask8 __U, __m256d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2dqs256_round_mask(
(__v4df)__A, (__v4si)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvttspd_epi32(__mmask8 __U, __m256d __A) {
+_mm256_maskz_cvtts_pd_epi32(__mmask8 __U, __m256d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2dqs256_round_mask(
(__v4df)__A, (__v4si)_mm_setzero_si128(), __U, _MM_FROUND_CUR_DIRECTION));
}
-#define _mm256_cvtts_roundpd_epi32(__A, __R) \
- ((__m128i)__builtin_ia32_vcvttpd2dqs256_round_mask( \
- (__v4df)(__m256d)__A, (__v4si)(__m128i)_mm_undefined_si128(), \
- (__mmask8) - 1, (int)(__R)))
-
-#define _mm256_mask_cvtts_roundpd_epi32(__W, __U, __A, __R) \
- ((__m128i)__builtin_ia32_vcvttpd2dqs256_round_mask( \
- (__v4df)(__m256d)__A, (__v4si)(__m128i)__W, (__mmask8)__U, (int)(__R)))
-
-#define _mm256_maskz_cvtts_roundpd_epi32(__U, __A, __R) \
- ((__m128i)__builtin_ia32_vcvttpd2dqs256_round_mask( \
- (__v4df)(__m256d)__A, (__v4si)(__m128i)_mm_setzero_si128(), \
- (__mmask8)__U, (int)(__R)))
-
// 128 Bit : Double -> uint
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvttspd_epu32(__m128d __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128
+_mm_cvtts_pd_epu32(__m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2udqs128_mask(
(__v2df)__A, (__v4si)(__m128i)_mm_undefined_si128(), (__mmask8)(-1)));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvttspd_epu32(__m128i __W, __mmask8 __U, __m128d __A) {
+_mm_mask_cvtts_pd_epu32(__m128i __W, __mmask8 __U, __m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2udqs128_mask(
(__v2df)__A, (__v4si)(__m128i)__W, (__mmask8)__U));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvttspd_epu32(__mmask8 __U, __m128d __A) {
+_mm_maskz_cvtts_pd_epu32(__mmask8 __U, __m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2udqs128_mask(
(__v2df)__A, (__v4si)(__m128i)_mm_setzero_si128(), __U));
}
// 256 Bit : Double -> uint
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_cvttspd_epu32(__m256d __A) {
+_mm256_cvtts_pd_epu32(__m256d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2udqs256_round_mask(
(__v4df)__A, (__v4si)_mm_undefined_si128(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvttspd_epu32(__m128i __W, __mmask8 __U, __m256d __A) {
+_mm256_mask_cvtts_pd_epu32(__m128i __W, __mmask8 __U, __m256d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2udqs256_round_mask(
(__v4df)__A, (__v4si)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvttspd_epu32(__mmask8 __U, __m256d __A) {
+_mm256_maskz_cvtts_pd_epu32(__mmask8 __U, __m256d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2udqs256_round_mask(
(__v4df)__A, (__v4si)_mm_setzero_si128(), __U, _MM_FROUND_CUR_DIRECTION));
}
-#define _mm256_cvtts_roundpd_epu32(__A, __R) \
- ((__m128i)__builtin_ia32_vcvttpd2udqs256_round_mask( \
- (__v4df)(__m256d)__A, (__v4si)(__m128i)_mm_undefined_si128(), \
- (__mmask8) - 1, (int)(__R)))
-
-#define _mm256_mask_cvtts_roundpd_epu32(__W, __U, __A, __R) \
- ((__m128i)__builtin_ia32_vcvttpd2udqs256_round_mask( \
- (__v4df)(__m256d)__A, (__v4si)(__m128i)__W, (__mmask8)__U, (int)(__R)))
-
-#define _mm256_maskz_cvtts_roundpd_epu32(__U, __A, __R) \
- ((__m128i)__builtin_ia32_vcvttpd2udqs256_round_mask( \
- (__v4df)(__m256d)__A, (__v4si)(__m128i)_mm_setzero_si128(), \
- (__mmask8)__U, (int)(__R)))
-
// 128 Bit : Double -> long
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvttspd_epi64(__m128d __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128
+_mm_cvtts_pd_epi64(__m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2qqs128_mask(
(__v2df)__A, (__v2di)_mm_undefined_si128(), (__mmask8)-1));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvttspd_epi64(__m128i __W, __mmask8 __U, __m128d __A) {
+_mm_mask_cvtts_pd_epi64(__m128i __W, __mmask8 __U, __m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2qqs128_mask((__v2df)__A, (__v2di)__W,
(__mmask8)__U));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvttspd_epi64(__mmask8 __U, __m128d __A) {
+_mm_maskz_cvtts_pd_epi64(__mmask8 __U, __m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2qqs128_mask(
(__v2df)__A, (__v2di)_mm_setzero_si128(), (__mmask8)__U));
}
// 256 Bit : Double -> long
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_cvttspd_epi64(__m256d __A) {
+_mm256_cvtts_pd_epi64(__m256d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2qqs256_round_mask(
(__v4df)__A, (__v4di)_mm256_undefined_si256(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvttspd_epi64(__m256i __W, __mmask8 __U, __m256d __A) {
+_mm256_mask_cvtts_pd_epi64(__m256i __W, __mmask8 __U, __m256d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2qqs256_round_mask(
(__v4df)__A, (__v4di)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvttspd_epi64(__mmask8 __U, __m256d __A) {
+_mm256_maskz_cvtts_pd_epi64(__mmask8 __U, __m256d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2qqs256_round_mask(
(__v4df)__A, (__v4di)_mm256_setzero_si256(), __U,
_MM_FROUND_CUR_DIRECTION));
}
-#define _mm256_cvtts_roundpd_epi64(__A, __R) \
- ((__m256i)__builtin_ia32_vcvttpd2qqs256_round_mask( \
- (__v4df)__A, (__v4di)_mm256_undefined_si256(), (__mmask8) - 1, \
- (int)__R))
-
-#define _mm256_mask_cvtts_roundpd_epi64(__W, __U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttpd2qqs256_round_mask((__v4df)__A, (__v4di)__W, \
- (__mmask8)__U, (int)__R))
-
-#define _mm256_maskz_cvtts_roundpd_epi64(__U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttpd2qqs256_round_mask( \
- (__v4df)__A, (__v4di)_mm256_setzero_si256(), (__mmask8)__U, (int)__R))
-
// 128 Bit : Double -> ulong
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvttspd_epu64(__m128d __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128
+_mm_cvtts_pd_epu64(__m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2uqqs128_mask(
(__v2df)__A, (__v2di)_mm_undefined_si128(), (__mmask8)-1));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvttspd_epu64(__m128i __W, __mmask8 __U, __m128d __A) {
+_mm_mask_cvtts_pd_epu64(__m128i __W, __mmask8 __U, __m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2uqqs128_mask((__v2df)__A, (__v2di)__W,
(__mmask8)__U));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvttspd_epu64(__mmask8 __U, __m128d __A) {
+_mm_maskz_cvtts_pd_epu64(__mmask8 __U, __m128d __A) {
return ((__m128i)__builtin_ia32_vcvttpd2uqqs128_mask(
(__v2df)__A, (__v2di)_mm_setzero_si128(), (__mmask8)__U));
}
@@ -247,105 +210,78 @@ _mm_maskz_cvttspd_epu64(__mmask8 __U, __m128d __A) {
// 256 Bit : Double -> ulong
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_cvttspd_epu64(__m256d __A) {
+_mm256_cvtts_pd_epu64(__m256d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2uqqs256_round_mask(
(__v4df)__A, (__v4di)_mm256_undefined_si256(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvttspd_epu64(__m256i __W, __mmask8 __U, __m256d __A) {
+_mm256_mask_cvtts_pd_epu64(__m256i __W, __mmask8 __U, __m256d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2uqqs256_round_mask(
(__v4df)__A, (__v4di)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvttspd_epu64(__mmask8 __U, __m256d __A) {
+_mm256_maskz_cvtts_pd_epu64(__mmask8 __U, __m256d __A) {
return ((__m256i)__builtin_ia32_vcvttpd2uqqs256_round_mask(
(__v4df)__A, (__v4di)_mm256_setzero_si256(), __U,
_MM_FROUND_CUR_DIRECTION));
}
-#define _mm256_cvtts_roundpd_epu64(__A, __R) \
- ((__m256i)__builtin_ia32_vcvttpd2uqqs256_round_mask( \
- (__v4df)__A, (__v4di)_mm256_undefined_si256(), (__mmask8) - 1, \
- (int)__R))
-
-#define _mm256_mask_cvtts_roundpd_epu64(__W, __U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttpd2uqqs256_round_mask( \
- (__v4df)__A, (__v4di)__W, (__mmask8)__U, (int)__R))
-
-#define _mm256_maskz_cvtts_roundpd_epu64(__U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttpd2uqqs256_round_mask( \
- (__v4df)__A, (__v4di)_mm256_setzero_si256(), (__mmask8)__U, (int)__R))
-
// 128 Bit : float -> int
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvttsps_epi32(__m128 __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvtts_ps_epi32(__m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2dqs128_mask(
(__v4sf)__A, (__v4si)(__m128i)_mm_undefined_si128(), (__mmask8)(-1)));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvttsps_epi32(__m128i __W, __mmask8 __U, __m128 __A) {
+_mm_mask_cvtts_ps_epi32(__m128i __W, __mmask8 __U, __m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2dqs128_mask((__v4sf)__A, (__v4si)__W,
(__mmask8)__U));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvttsps_epi32(__mmask8 __U, __m128 __A) {
+_mm_maskz_cvtts_ps_epi32(__mmask8 __U, __m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2dqs128_mask(
(__v4sf)__A, (__v4si)(__m128i)_mm_setzero_si128(), (__mmask8)__U));
}
// 256 Bit : float -> int
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_cvttsps_epi32(__m256 __A) {
+_mm256_cvtts_ps_epi32(__m256 __A) {
return ((__m256i)__builtin_ia32_vcvttps2dqs256_round_mask(
(__v8sf)__A, (__v8si)_mm256_undefined_si256(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvttsps_epi32(__m256i __W, __mmask8 __U, __m256 __A) {
+_mm256_mask_cvtts_ps_epi32(__m256i __W, __mmask8 __U, __m256 __A) {
return ((__m256i)__builtin_ia32_vcvttps2dqs256_round_mask(
(__v8sf)__A, (__v8si)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvttsps_epi32(__mmask8 __U, __m256 __A) {
+_mm256_maskz_cvtts_ps_epi32(__mmask8 __U, __m256 __A) {
return ((__m256i)__builtin_ia32_vcvttps2dqs256_round_mask(
(__v8sf)__A, (__v8si)_mm256_setzero_si256(), __U,
_MM_FROUND_CUR_DIRECTION));
}
-#define _mm256_cvtts_roundps_epi32(__A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2dqs256_round_mask( \
- (__v8sf)(__m256)__A, (__v8si)(__m256i)_mm256_undefined_si256(), \
- (__mmask8) - 1, (int)(__R)))
-
-#define _mm256_mask_cvtts_roundps_epi32(__W, __U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2dqs256_round_mask( \
- (__v8sf)(__m256)__A, (__v8si)(__m256i)__W, (__mmask8)__U, (int)(__R)))
-
-#define _mm256_maskz_cvtts_roundps_epi32(__U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2dqs256_round_mask( \
- (__v8sf)(__m256)__A, (__v8si)(__m256i)_mm256_setzero_si256(), \
- (__mmask8)__U, (int)(__R)))
-
// 128 Bit : float -> uint
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvttsps_epu32(__m128 __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvtts_ps_epu32(__m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2udqs128_mask(
(__v4sf)__A, (__v4si)(__m128i)_mm_undefined_si128(), (__mmask8)(-1)));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvttsps_epu32(__m128i __W, __mmask8 __U, __m128 __A) {
+_mm_mask_cvtts_ps_epu32(__m128i __W, __mmask8 __U, __m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2udqs128_mask((__v4sf)__A, (__v4si)__W,
(__mmask8)__U));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvttsps_epu32(__mmask8 __U, __m128 __A) {
+_mm_maskz_cvtts_ps_epu32(__mmask8 __U, __m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2udqs128_mask(
(__v4sf)__A, (__v4si)_mm_setzero_si128(), (__mmask8)__U));
}
@@ -353,144 +289,102 @@ _mm_maskz_cvttsps_epu32(__mmask8 __U, __m128 __A) {
// 256 Bit : float -> uint
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_cvttsps_epu32(__m256 __A) {
+_mm256_cvtts_ps_epu32(__m256 __A) {
return ((__m256i)__builtin_ia32_vcvttps2udqs256_round_mask(
(__v8sf)__A, (__v8si)_mm256_undefined_si256(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvttsps_epu32(__m256i __W, __mmask8 __U, __m256 __A) {
+_mm256_mask_cvtts_ps_epu32(__m256i __W, __mmask8 __U, __m256 __A) {
return ((__m256i)__builtin_ia32_vcvttps2udqs256_round_mask(
(__v8sf)__A, (__v8si)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvttsps_epu32(__mmask8 __U, __m256 __A) {
+_mm256_maskz_cvtts_ps_epu32(__mmask8 __U, __m256 __A) {
return ((__m256i)__builtin_ia32_vcvttps2udqs256_round_mask(
(__v8sf)__A, (__v8si)_mm256_setzero_si256(), __U,
_MM_FROUND_CUR_DIRECTION));
}
-#define _mm256_cvtts_roundps_epu32(__A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2udqs256_round_mask( \
- (__v8sf)(__m256)__A, (__v8si)(__m256i)_mm256_undefined_si256(), \
- (__mmask8) - 1, (int)(__R)))
-
-#define _mm256_mask_cvtts_roundps_epu32(__W, __U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2udqs256_round_mask( \
- (__v8sf)(__m256)__A, (__v8si)(__m256i)__W, (__mmask8)__U, (int)(__R)))
-
-#define _mm256_maskz_cvtts_roundps_epu32(__U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2udqs256_round_mask( \
- (__v8sf)(__m256)__A, (__v8si)(__m256i)_mm256_setzero_si256(), \
- (__mmask8)__U, (int)(__R)))
-
// 128 bit : float -> long
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvttsps_epi64(__m128 __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvtts_ps_epi64(__m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2qqs128_mask(
(__v4sf)__A, (__v2di)_mm_undefined_si128(), (__mmask8)-1));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvttsps_epi64(__m128i __W, __mmask8 __U, __m128 __A) {
+_mm_mask_cvtts_ps_epi64(__m128i __W, __mmask8 __U, __m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2qqs128_mask(
(__v4sf)__A, (__v2di)(__m128i)__W, (__mmask8)__U));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvttsps_epi64(__mmask8 __U, __m128 __A) {
+_mm_maskz_cvtts_ps_epi64(__mmask8 __U, __m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2qqs128_mask(
(__v4sf)__A, (__v2di)_mm_setzero_si128(), (__mmask8)__U));
}
// 256 bit : float -> long
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_cvttsps_epi64(__m128 __A) {
+_mm256_cvtts_ps_epi64(__m128 __A) {
return ((__m256i)__builtin_ia32_vcvttps2qqs256_round_mask(
(__v4sf)__A, (__v4di)_mm256_undefined_si256(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvttsps_epi64(__m256i __W, __mmask8 __U, __m128 __A) {
+_mm256_mask_cvtts_ps_epi64(__m256i __W, __mmask8 __U, __m128 __A) {
return ((__m256i)__builtin_ia32_vcvttps2qqs256_round_mask(
(__v4sf)__A, (__v4di)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvttsps_epi64(__mmask8 __U, __m128 __A) {
+_mm256_maskz_cvtts_ps_epi64(__mmask8 __U, __m128 __A) {
return ((__m256i)__builtin_ia32_vcvttps2qqs256_round_mask(
(__v4sf)__A, (__v4di)_mm256_setzero_si256(), __U,
_MM_FROUND_CUR_DIRECTION));
}
-#define _mm256_cvtts_roundps_epi64(__A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2qqs256_round_mask( \
- (__v4sf)(__m128)__A, (__v4di)_mm256_undefined_si256(), (__mmask8) - 1, \
- (int)__R))
-
-#define _mm256_mask_cvtts_roundps_epi64(__W, __U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2qqs256_round_mask( \
- (__v4sf)(__m128)__A, (__v4di)__W, (__mmask8)__U, (int)__R))
-
-#define _mm256_maskz_cvtts_roundps_epi64(__U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2qqs256_round_mask( \
- (__v4sf)(__m128)__A, (__v4di)_mm256_setzero_si256(), (__mmask8)__U, \
- (int)__R))
-
// 128 bit : float -> ulong
-static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvttsps_epu64(__m128 __A) {
+static __inline__ __m128i __DEFAULT_FN_ATTRS128 _mm_cvtts_ps_epu64(__m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2uqqs128_mask(
(__v4sf)__A, (__v2di)_mm_undefined_si128(), (__mmask8)-1));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_mask_cvttsps_epu64(__m128i __W, __mmask8 __U, __m128 __A) {
+_mm_mask_cvtts_ps_epu64(__m128i __W, __mmask8 __U, __m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2uqqs128_mask(
(__v4sf)__A, (__v2di)(__m128i)__W, (__mmask8)__U));
}
static __inline__ __m128i __DEFAULT_FN_ATTRS128
-_mm_maskz_cvttsps_epu64(__mmask8 __U, __m128 __A) {
+_mm_maskz_cvtts_ps_epu64(__mmask8 __U, __m128 __A) {
return ((__m128i)__builtin_ia32_vcvttps2uqqs128_mask(
(__v4sf)__A, (__v2di)_mm_setzero_si128(), (__mmask8)__U));
}
// 256 bit : float -> ulong
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_cvttsps_epu64(__m128 __A) {
+_mm256_cvtts_ps_epu64(__m128 __A) {
return ((__m256i)__builtin_ia32_vcvttps2uqqs256_round_mask(
(__v4sf)__A, (__v4di)_mm256_undefined_si256(), (__mmask8)-1,
_MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_mask_cvttsps_epu64(__m256i __W, __mmask8 __U, __m128 __A) {
+_mm256_mask_cvtts_ps_epu64(__m256i __W, __mmask8 __U, __m128 __A) {
return ((__m256i)__builtin_ia32_vcvttps2uqqs256_round_mask(
(__v4sf)__A, (__v4di)__W, __U, _MM_FROUND_CUR_DIRECTION));
}
static __inline__ __m256i __DEFAULT_FN_ATTRS256
-_mm256_maskz_cvttsps_epu64(__mmask8 __U, __m128 __A) {
+_mm256_maskz_cvtts_ps_epu64(__mmask8 __U, __m128 __A) {
return ((__m256i)__builtin_ia32_vcvttps2uqqs256_round_mask(
(__v4sf)__A, (__v4di)_mm256_setzero_si256(), __U,
_MM_FROUND_CUR_DIRECTION));
}
-#define _mm256_cvtts_roundps_epu64(__A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2uqqs256_round_mask( \
- (__v4sf)(__m128)__A, (__v4di)_mm256_undefined_si256(), (__mmask8) - 1, \
- (int)__R))
-
-#define _mm256_mask_cvtts_roundps_epu64(__W, __U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2uqqs256_round_mask( \
- (__v4sf)(__m128)__A, (__v4di)__W, (__mmask8)__U, (int)__R))
-
-#define _mm256_maskz_cvtts_roundps_epu64(__U, __A, __R) \
- ((__m256i)__builtin_ia32_vcvttps2uqqs256_round_mask( \
- (__v4sf)(__m128)__A, (__v4di)_mm256_setzero_si256(), (__mmask8)__U, \
- (int)__R))
-
#undef __DEFAULT_FN_ATTRS128
#undef __DEFAULT_FN_ATTRS256
#endif // __AVX10_2SATCVTDSINTRIN_H
diff --git a/clang/lib/Headers/avx10_2satcvtintrin.h b/clang/lib/Headers/avx10_2satcvtintrin.h
index d16c60e6382df..cfa5b02fc7d4c 100644
--- a/clang/lib/Headers/avx10_2satcvtintrin.h
+++ b/clang/lib/Headers/avx10_2satcvtintrin.h
@@ -14,431 +14,319 @@
#ifndef __AVX10_2SATCVTINTRIN_H
#define __AVX10_2SATCVTINTRIN_H
-#define _mm_ipcvtbf16_epi8(A) \
+#define _mm_ipcvts_bf16_epi8(A) \
((__m128i)__builtin_ia32_vcvtbf162ibs128((__v8bf)(__m128bh)(A)))
-#define _mm_mask_ipcvtbf16_epi8(W, U, A) \
+#define _mm_mask_ipcvts_bf16_epi8(W, U, A) \
((__m128i)__builtin_ia32_selectw_128( \
- (__mmask8)(U), (__v8hi)_mm_ipcvtbf16_epi8(A), (__v8hi)(__m128i)(W)))
+ (__mmask8)(U), (__v8hi)_mm_ipcvts_bf16_epi8(A), (__v8hi)(__m128i)(W)))
-#define _mm_maskz_ipcvtbf16_epi8(U, A) \
+#define _mm_maskz_ipcvts_bf16_epi8(U, A) \
((__m128i)__builtin_ia32_selectw_128((__mmask8)(U), \
- (__v8hi)_mm_ipcvtbf16_epi8(A), \
+ (__v8hi)_mm_ipcvts_bf16_epi8(A), \
(__v8hi)_mm_setzero_si128()))
-#define _mm256_ipcvtbf16_epi8(A) \
+#define _mm256_ipcvts_bf16_epi8(A) \
((__m256i)__builtin_ia32_vcvtbf162ibs256((__v16bf)(__m256bh)(A)))
-#define _mm256_mask_ipcvtbf16_epi8(W, U, A) \
+#define _mm256_mask_ipcvts_bf16_epi8(W, U, A) \
((__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
- (__v16hi)_mm256_ipcvtbf16_epi8(A), \
+ (__v16hi)_mm256_ipcvts_bf16_epi8(A), \
(__v16hi)(__m256i)(W)))
-#define _mm256_maskz_ipcvtbf16_epi8(U, A) \
+#define _mm256_maskz_ipcvts_bf16_epi8(U, A) \
((__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
- (__v16hi)_mm256_ipcvtbf16_epi8(A), \
+ (__v16hi)_mm256_ipcvts_bf16_epi8(A), \
(__v16hi)_mm256_setzero_si256()))
-#define _mm_ipcvtbf16_epu8(A) \
+#define _mm_ipcvts_bf16_epu8(A) \
((__m128i)__builtin_ia32_vcvtbf162iubs128((__v8bf)(__m128bh)(A)))
-#define _mm_mask_ipcvtbf16_epu8(W, U, A) \
+#define _mm_mask_ipcvts_bf16_epu8(W, U, A) \
((__m128i)__builtin_ia32_selectw_128( \
- (__mmask8)(U), (__v8hi)_mm_ipcvtbf16_epu8(A), (__v8hi)(__m128i)(W)))
+ (__mmask8)(U), (__v8hi)_mm_ipcvts_bf16_epu8(A), (__v8hi)(__m128i)(W)))
-#define _mm_maskz_ipcvtbf16_epu8(U, A) \
+#define _mm_maskz_ipcvts_bf16_epu8(U, A) \
((__m128i)__builtin_ia32_selectw_128((__mmask8)(U), \
- (__v8hi)_mm_ipcvtbf16_epu8(A), \
+ (__v8hi)_mm_ipcvts_bf16_epu8(A), \
(__v8hi)_mm_setzero_si128()))
-#define _mm256_ipcvtbf16_epu8(A) \
+#define _mm256_ipcvts_bf16_epu8(A) \
((__m256i)__builtin_ia32_vcvtbf162iubs256((__v16bf)(__m256bh)(A)))
-#define _mm256_mask_ipcvtbf16_epu8(W, U, A) \
+#define _mm256_mask_ipcvts_bf16_epu8(W, U, A) \
((__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
- (__v16hi)_mm256_ipcvtbf16_epu8(A), \
+ (__v16hi)_mm256_ipcvts_bf16_epu8(A), \
(__v16hi)(__m256i)(W)))
-#define _mm256_maskz_ipcvtbf16_epu8(U, A) \
+#define _mm256_maskz_ipcvts_bf16_epu8(U, A) \
((__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
- (__v16hi)_mm256_ipcvtbf16_epu8(A), \
+ (__v16hi)_mm256_ipcvts_bf16_epu8(A), \
(__v16hi)_mm256_setzero_si256()))
-#define _mm_ipcvtph_epi8(A) \
+#define _mm_ipcvts_ph_epi8(A) \
((__m128i)__builtin_ia32_vcvtph2ibs128_mask( \
(__v8hf)(__m128h)(A), (__v8hu)_mm_setzero_si128(), (__mmask8)-1))
-#define _mm_mask_ipcvtph_epi8(W, U, A) \
+#define _mm_mask_ipcvts_ph_epi8(W, U, A) \
((__m128i)__builtin_ia32_vcvtph2ibs128_mask((__v8hf)(__m128h)(A), \
(__v8hu)(W), (__mmask8)(U)))
-#define _mm_maskz_ipcvtph_epi8(U, A) \
+#define _mm_maskz_ipcvts_ph_epi8(U, A) \
((__m128i)__builtin_ia32_vcvtph2ibs128_mask( \
(__v8hf)(__m128h)(A), (__v8hu)(_mm_setzero_si128()), (__mmask8)(U)))
-#define _mm256_ipcvtph_epi8(A) \
+#define _mm256_ipcvts_ph_epi8(A) \
((__m256i)__builtin_ia32_vcvtph2ibs256_mask( \
(__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)-1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_mask_ipcvtph_epi8(W, U, A) \
+#define _mm256_mask_ipcvts_ph_epi8(W, U, A) \
((__m256i)__builtin_ia32_vcvtph2ibs256_mask((__v16hf)(__m256h)(A), \
(__v16hu)(W), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_maskz_ipcvtph_epi8(U, A) \
+#define _mm256_maskz_ipcvts_ph_epi8(U, A) \
((__m256i)__builtin_ia32_vcvtph2ibs256_mask( \
(__v16hf)(__m256h)(A), (__v16hu)(_mm256_setzero_si256()), \
(__mmask16)(U), _MM_FROUND_CUR_DIRECTION))
-#define _mm256_ipcvt_roundph_epi8(A, R) \
- ((__m256i)__builtin_ia32_vcvtph2ibs256_mask((__v16hf)(__m256h)(A), \
- (__v16hu)_mm256_setzero_si256(), \
- (__mmask16)-1, (const int)R))
-
-#define _mm256_mask_ipcvt_roundph_epi8(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2ibs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)(W), (__mmask16)(U), (const int)R))
-
-#define _mm256_maskz_ipcvt_roundph_epi8(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2ibs256_mask((__v16hf)(__m256h)(A), \
- (__v16hu)_mm256_setzero_si256(), \
- (__mmask16)(U), (const int)R))
-
-#define _mm_ipcvtph_epu8(A) \
+#define _mm_ipcvts_ph_epu8(A) \
((__m128i)__builtin_ia32_vcvtph2iubs128_mask( \
(__v8hf)(__m128h)(A), (__v8hu)_mm_setzero_si128(), (__mmask8)-1))
-#define _mm_mask_ipcvtph_epu8(W, U, A) \
+#define _mm_mask_ipcvts_ph_epu8(W, U, A) \
((__m128i)__builtin_ia32_vcvtph2iubs128_mask((__v8hf)(__m128h)(A), \
(__v8hu)(W), (__mmask8)(U)))
-#define _mm_maskz_ipcvtph_epu8(U, A) \
+#define _mm_maskz_ipcvts_ph_epu8(U, A) \
((__m128i)__builtin_ia32_vcvtph2iubs128_mask( \
(__v8hf)(__m128h)(A), (__v8hu)(_mm_setzero_si128()), (__mmask8)(U)))
-#define _mm256_ipcvtph_epu8(A) \
+#define _mm256_ipcvts_ph_epu8(A) \
((__m256i)__builtin_ia32_vcvtph2iubs256_mask( \
(__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)-1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_mask_ipcvtph_epu8(W, U, A) \
+#define _mm256_mask_ipcvts_ph_epu8(W, U, A) \
((__m256i)__builtin_ia32_vcvtph2iubs256_mask((__v16hf)(__m256h)(A), \
(__v16hu)(W), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_maskz_ipcvtph_epu8(U, A) \
+#define _mm256_maskz_ipcvts_ph_epu8(U, A) \
((__m256i)__builtin_ia32_vcvtph2iubs256_mask( \
(__v16hf)(__m256h)(A), (__v16hu)(_mm256_setzero_si256()), \
(__mmask16)(U), _MM_FROUND_CUR_DIRECTION))
-#define _mm256_ipcvt_roundph_epu8(A, R) \
- ((__m256i)__builtin_ia32_vcvtph2iubs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)-1, \
- (const int)R))
-
-#define _mm256_mask_ipcvt_roundph_epu8(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2iubs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)(W), (__mmask16)(U), (const int)R))
-
-#define _mm256_maskz_ipcvt_roundph_epu8(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtph2iubs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)(U), \
- (const int)R))
-
-#define _mm_ipcvtps_epi8(A) \
+#define _mm_ipcvts_ps_epi8(A) \
((__m128i)__builtin_ia32_vcvtps2ibs128_mask( \
(__v4sf)(__m128)(A), (__v4su)_mm_setzero_si128(), (__mmask8)-1))
-#define _mm_mask_ipcvtps_epi8(W, U, A) \
+#define _mm_mask_ipcvts_ps_epi8(W, U, A) \
((__m128i)__builtin_ia32_vcvtps2ibs128_mask((__v4sf)(__m128)(A), \
(__v4su)(W), (__mmask8)(U)))
-#define _mm_maskz_ipcvtps_epi8(U, A) \
+#define _mm_maskz_ipcvts_ps_epi8(U, A) \
((__m128i)__builtin_ia32_vcvtps2ibs128_mask( \
(__v4sf)(__m128)(A), (__v4su)(_mm_setzero_si128()), (__mmask8)(U)))
-#define _mm256_ipcvtps_epi8(A) \
+#define _mm256_ipcvts_ps_epi8(A) \
((__m256i)__builtin_ia32_vcvtps2ibs256_mask( \
(__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)-1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_mask_ipcvtps_epi8(W, U, A) \
+#define _mm256_mask_ipcvts_ps_epi8(W, U, A) \
((__m256i)__builtin_ia32_vcvtps2ibs256_mask((__v8sf)(__m256)(A), \
(__v8su)(W), (__mmask8)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_maskz_ipcvtps_epi8(U, A) \
+#define _mm256_maskz_ipcvts_ps_epi8(U, A) \
((__m256i)__builtin_ia32_vcvtps2ibs256_mask( \
(__v8sf)(__m256)(A), (__v8su)(_mm256_setzero_si256()), (__mmask8)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_ipcvt_roundps_epi8(A, R) \
- ((__m256i)__builtin_ia32_vcvtps2ibs256_mask((__v8sf)(__m256)(A), \
- (__v8su)_mm256_setzero_si256(), \
- (__mmask8)-1, (const int)R))
-
-#define _mm256_mask_ipcvt_roundps_epi8(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2ibs256_mask( \
- (__v8sf)(__m256)(A), (__v8su)(W), (__mmask8)(U), (const int)R))
-
-#define _mm256_maskz_ipcvt_roundps_epi8(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2ibs256_mask((__v8sf)(__m256)(A), \
- (__v8su)_mm256_setzero_si256(), \
- (__mmask8)(U), (const int)R))
-
-#define _mm_ipcvtps_epu8(A) \
+#define _mm_ipcvts_ps_epu8(A) \
((__m128i)__builtin_ia32_vcvtps2iubs128_mask( \
(__v4sf)(__m128)(A), (__v4su)_mm_setzero_si128(), (__mmask8)-1))
-#define _mm_mask_ipcvtps_epu8(W, U, A) \
+#define _mm_mask_ipcvts_ps_epu8(W, U, A) \
((__m128i)__builtin_ia32_vcvtps2iubs128_mask((__v4sf)(__m128)(A), \
(__v4su)(W), (__mmask8)(U)))
-#define _mm_maskz_ipcvtps_epu8(U, A) \
+#define _mm_maskz_ipcvts_ps_epu8(U, A) \
((__m128i)__builtin_ia32_vcvtps2iubs128_mask( \
(__v4sf)(__m128)(A), (__v4su)(_mm_setzero_si128()), (__mmask8)(U)))
-#define _mm256_ipcvtps_epu8(A) \
+#define _mm256_ipcvts_ps_epu8(A) \
((__m256i)__builtin_ia32_vcvtps2iubs256_mask( \
(__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)-1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_mask_ipcvtps_epu8(W, U, A) \
+#define _mm256_mask_ipcvts_ps_epu8(W, U, A) \
((__m256i)__builtin_ia32_vcvtps2iubs256_mask((__v8sf)(__m256)(A), \
(__v8su)(W), (__mmask8)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_maskz_ipcvtps_epu8(U, A) \
+#define _mm256_maskz_ipcvts_ps_epu8(U, A) \
((__m256i)__builtin_ia32_vcvtps2iubs256_mask( \
(__v8sf)(__m256)(A), (__v8su)(_mm256_setzero_si256()), (__mmask8)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_ipcvt_roundps_epu8(A, R) \
- ((__m256i)__builtin_ia32_vcvtps2iubs256_mask((__v8sf)(__m256)(A), \
- (__v8su)_mm256_setzero_si256(), \
- (__mmask8)-1, (const int)R))
-
-#define _mm256_mask_ipcvt_roundps_epu8(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2iubs256_mask( \
- (__v8sf)(__m256)(A), (__v8su)(W), (__mmask8)(U), (const int)R))
-
-#define _mm256_maskz_ipcvt_roundps_epu8(U, A, R) \
- ((__m256i)__builtin_ia32_vcvtps2iubs256_mask((__v8sf)(__m256)(A), \
- (__v8su)_mm256_setzero_si256(), \
- (__mmask8)(U), (const int)R))
-
-#define _mm_ipcvttbf16_epi8(A) \
+#define _mm_ipcvtts_bf16_epi8(A) \
((__m128i)__builtin_ia32_vcvttbf162ibs128((__v8bf)(__m128bh)(A)))
-#define _mm_mask_ipcvttbf16_epi8(W, U, A) \
+#define _mm_mask_ipcvtts_bf16_epi8(W, U, A) \
((__m128i)__builtin_ia32_selectw_128( \
- (__mmask8)(U), (__v8hi)_mm_ipcvttbf16_epi8(A), (__v8hi)(__m128i)(W)))
+ (__mmask8)(U), (__v8hi)_mm_ipcvtts_bf16_epi8(A), (__v8hi)(__m128i)(W)))
-#define _mm_maskz_ipcvttbf16_epi8(U, A) \
+#define _mm_maskz_ipcvtts_bf16_epi8(U, A) \
((__m128i)__builtin_ia32_selectw_128((__mmask8)(U), \
- (__v8hi)_mm_ipcvttbf16_epi8(A), \
+ (__v8hi)_mm_ipcvtts_bf16_epi8(A), \
(__v8hi)_mm_setzero_si128()))
-#define _mm256_ipcvttbf16_epi8(A) \
+#define _mm256_ipcvtts_bf16_epi8(A) \
((__m256i)__builtin_ia32_vcvttbf162ibs256((__v16bf)(__m256bh)(A)))
-#define _mm256_mask_ipcvttbf16_epi8(W, U, A) \
+#define _mm256_mask_ipcvtts_bf16_epi8(W, U, A) \
((__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
- (__v16hi)_mm256_ipcvttbf16_epi8(A), \
+ (__v16hi)_mm256_ipcvtts_bf16_epi8(A), \
(__v16hi)(__m256i)(W)))
-#define _mm256_maskz_ipcvttbf16_epi8(U, A) \
+#define _mm256_maskz_ipcvtts_bf16_epi8(U, A) \
((__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
- (__v16hi)_mm256_ipcvttbf16_epi8(A), \
+ (__v16hi)_mm256_ipcvtts_bf16_epi8(A), \
(__v16hi)_mm256_setzero_si256()))
-#define _mm_ipcvttbf16_epu8(A) \
+#define _mm_ipcvtts_bf16_epu8(A) \
((__m128i)__builtin_ia32_vcvttbf162iubs128((__v8bf)(__m128bh)(A)))
-#define _mm_mask_ipcvttbf16_epu8(W, U, A) \
+#define _mm_mask_ipcvtts_bf16_epu8(W, U, A) \
((__m128i)__builtin_ia32_selectw_128( \
- (__mmask8)(U), (__v8hi)_mm_ipcvttbf16_epu8(A), (__v8hi)(__m128i)(W)))
+ (__mmask8)(U), (__v8hi)_mm_ipcvtts_bf16_epu8(A), (__v8hi)(__m128i)(W)))
-#define _mm_maskz_ipcvttbf16_epu8(U, A) \
+#define _mm_maskz_ipcvtts_bf16_epu8(U, A) \
((__m128i)__builtin_ia32_selectw_128((__mmask8)(U), \
- (__v8hi)_mm_ipcvttbf16_epu8(A), \
+ (__v8hi)_mm_ipcvtts_bf16_epu8(A), \
(__v8hi)_mm_setzero_si128()))
-#define _mm256_ipcvttbf16_epu8(A) \
+#define _mm256_ipcvtts_bf16_epu8(A) \
((__m256i)__builtin_ia32_vcvttbf162iubs256((__v16bf)(__m256bh)(A)))
-#define _mm256_mask_ipcvttbf16_epu8(W, U, A) \
+#define _mm256_mask_ipcvtts_bf16_epu8(W, U, A) \
((__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
- (__v16hi)_mm256_ipcvttbf16_epu8(A), \
+ (__v16hi)_mm256_ipcvtts_bf16_epu8(A), \
(__v16hi)(__m256i)(W)))
-#define _mm256_maskz_ipcvttbf16_epu8(U, A) \
+#define _mm256_maskz_ipcvtts_bf16_epu8(U, A) \
((__m256i)__builtin_ia32_selectw_256((__mmask16)(U), \
- (__v16hi)_mm256_ipcvttbf16_epu8(A), \
+ (__v16hi)_mm256_ipcvtts_bf16_epu8(A), \
(__v16hi)_mm256_setzero_si256()))
-#define _mm_ipcvttph_epi8(A) \
+#define _mm_ipcvtts_ph_epi8(A) \
((__m128i)__builtin_ia32_vcvttph2ibs128_mask( \
(__v8hf)(__m128h)(A), (__v8hu)_mm_setzero_si128(), (__mmask8)-1))
-#define _mm_mask_ipcvttph_epi8(W, U, A) \
+#define _mm_mask_ipcvtts_ph_epi8(W, U, A) \
((__m128i)__builtin_ia32_vcvttph2ibs128_mask((__v8hf)(__m128h)(A), \
(__v8hu)(W), (__mmask8)(U)))
-#define _mm_maskz_ipcvttph_epi8(U, A) \
+#define _mm_maskz_ipcvtts_ph_epi8(U, A) \
((__m128i)__builtin_ia32_vcvttph2ibs128_mask( \
(__v8hf)(__m128h)(A), (__v8hu)(_mm_setzero_si128()), (__mmask8)(U)))
-#define _mm256_ipcvttph_epi8(A) \
+#define _mm256_ipcvtts_ph_epi8(A) \
((__m256i)__builtin_ia32_vcvttph2ibs256_mask( \
(__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)-1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_mask_ipcvttph_epi8(W, U, A) \
+#define _mm256_mask_ipcvtts_ph_epi8(W, U, A) \
((__m256i)__builtin_ia32_vcvttph2ibs256_mask((__v16hf)(__m256h)(A), \
(__v16hu)(W), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_maskz_ipcvttph_epi8(U, A) \
+#define _mm256_maskz_ipcvtts_ph_epi8(U, A) \
((__m256i)__builtin_ia32_vcvttph2ibs256_mask( \
(__v16hf)(__m256h)(A), (__v16hu)(_mm256_setzero_si256()), \
(__mmask16)(U), _MM_FROUND_CUR_DIRECTION))
-#define _mm256_ipcvtt_roundph_epi8(A, R) \
- ((__m256i)__builtin_ia32_vcvttph2ibs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)-1, \
- (const int)R))
-
-#define _mm256_mask_ipcvtt_roundph_epi8(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2ibs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)(W), (__mmask16)(U), (const int)R))
-
-#define _mm256_maskz_ipcvtt_roundph_epi8(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2ibs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)(U), \
- (const int)R))
-
-#define _mm_ipcvttph_epu8(A) \
+#define _mm_ipcvtts_ph_epu8(A) \
((__m128i)__builtin_ia32_vcvttph2iubs128_mask( \
(__v8hf)(__m128h)(A), (__v8hu)_mm_setzero_si128(), (__mmask8)-1))
-#define _mm_mask_ipcvttph_epu8(W, U, A) \
+#define _mm_mask_ipcvtts_ph_epu8(W, U, A) \
((__m128i)__builtin_ia32_vcvttph2iubs128_mask((__v8hf)(__m128h)(A), \
(__v8hu)(W), (__mmask8)(U)))
-#define _mm_maskz_ipcvttph_epu8(U, A) \
+#define _mm_maskz_ipcvtts_ph_epu8(U, A) \
((__m128i)__builtin_ia32_vcvttph2iubs128_mask( \
(__v8hf)(__m128h)(A), (__v8hu)(_mm_setzero_si128()), (__mmask8)(U)))
-#define _mm256_ipcvttph_epu8(A) \
+#define _mm256_ipcvtts_ph_epu8(A) \
((__m256i)__builtin_ia32_vcvttph2iubs256_mask( \
(__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)-1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_mask_ipcvttph_epu8(W, U, A) \
+#define _mm256_mask_ipcvtts_ph_epu8(W, U, A) \
((__m256i)__builtin_ia32_vcvttph2iubs256_mask((__v16hf)(__m256h)(A), \
(__v16hu)(W), (__mmask16)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_maskz_ipcvttph_epu8(U, A) \
+#define _mm256_maskz_ipcvtts_ph_epu8(U, A) \
((__m256i)__builtin_ia32_vcvttph2iubs256_mask( \
(__v16hf)(__m256h)(A), (__v16hu)(_mm256_setzero_si256()), \
(__mmask16)(U), _MM_FROUND_CUR_DIRECTION))
-#define _mm256_ipcvtt_roundph_epu8(A, R) \
- ((__m256i)__builtin_ia32_vcvttph2iubs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)-1, \
- (const int)R))
-
-#define _mm256_mask_ipcvtt_roundph_epu8(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2iubs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)(W), (__mmask16)(U), (const int)R))
-
-#define _mm256_maskz_ipcvtt_roundph_epu8(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttph2iubs256_mask( \
- (__v16hf)(__m256h)(A), (__v16hu)_mm256_setzero_si256(), (__mmask16)(U), \
- (const int)R))
-
-#define _mm_ipcvttps_epi8(A) \
+#define _mm_ipcvtts_ps_epi8(A) \
((__m128i)__builtin_ia32_vcvttps2ibs128_mask( \
(__v4sf)(__m128)(A), (__v4su)_mm_setzero_si128(), (__mmask8)-1))
-#define _mm_mask_ipcvttps_epi8(W, U, A) \
+#define _mm_mask_ipcvtts_ps_epi8(W, U, A) \
((__m128i)__builtin_ia32_vcvttps2ibs128_mask((__v4sf)(__m128)(A), \
(__v4su)(W), (__mmask8)(U)))
-#define _mm_maskz_ipcvttps_epi8(U, A) \
+#define _mm_maskz_ipcvtts_ps_epi8(U, A) \
((__m128i)__builtin_ia32_vcvttps2ibs128_mask( \
(__v4sf)(__m128)(A), (__v4su)(_mm_setzero_si128()), (__mmask8)(U)))
-#define _mm256_ipcvttps_epi8(A) \
+#define _mm256_ipcvtts_ps_epi8(A) \
((__m256i)__builtin_ia32_vcvttps2ibs256_mask( \
(__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)-1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_mask_ipcvttps_epi8(W, U, A) \
+#define _mm256_mask_ipcvtts_ps_epi8(W, U, A) \
((__m256i)__builtin_ia32_vcvttps2ibs256_mask((__v8sf)(__m256)(A), \
(__v8su)(W), (__mmask8)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_maskz_ipcvttps_epi8(U, A) \
+#define _mm256_maskz_ipcvtts_ps_epi8(U, A) \
((__m256i)__builtin_ia32_vcvttps2ibs256_mask( \
(__v8sf)(__m256)(A), (__v8su)(_mm256_setzero_si256()), (__mmask8)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_ipcvtt_roundps_epi8(A, R) \
- ((__m256i)__builtin_ia32_vcvttps2ibs256_mask((__v8sf)(__m256)(A), \
- (__v8su)_mm256_setzero_si256(), \
- (__mmask8)-1, (const int)R))
-
-#define _mm256_mask_ipcvtt_roundps_epi8(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2ibs256_mask( \
- (__v8sf)(__m256)(A), (__v8su)(W), (__mmask8)(U), (const int)R))
-
-#define _mm256_maskz_ipcvtt_roundps_epi8(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2ibs256_mask((__v8sf)(__m256)(A), \
- (__v8su)_mm256_setzero_si256(), \
- (__mmask8)(U), (const int)R))
-
-#define _mm_ipcvttps_epu8(A) \
+#define _mm_ipcvtts_ps_epu8(A) \
((__m128i)__builtin_ia32_vcvttps2iubs128_mask( \
(__v4sf)(__m128)(A), (__v4su)_mm_setzero_si128(), (__mmask8)-1))
-#define _mm_mask_ipcvttps_epu8(W, U, A) \
+#define _mm_mask_ipcvtts_ps_epu8(W, U, A) \
((__m128i)__builtin_ia32_vcvttps2iubs128_mask((__v4sf)(__m128)(A), \
(__v4su)(W), (__mmask8)(U)))
-#define _mm_maskz_ipcvttps_epu8(U, A) \
+#define _mm_maskz_ipcvtts_ps_epu8(U, A) \
((__m128i)__builtin_ia32_vcvttps2iubs128_mask( \
(__v4sf)(__m128)(A), (__v4su)(_mm_setzero_si128()), (__mmask8)(U)))
-#define _mm256_ipcvttps_epu8(A) \
+#define _mm256_ipcvtts_ps_epu8(A) \
((__m256i)__builtin_ia32_vcvttps2iubs256_mask( \
(__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)-1, \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_mask_ipcvttps_epu8(W, U, A) \
+#define _mm256_mask_ipcvtts_ps_epu8(W, U, A) \
((__m256i)__builtin_ia32_vcvttps2iubs256_mask((__v8sf)(__m256)(A), \
(__v8su)(W), (__mmask8)(U), \
_MM_FROUND_CUR_DIRECTION))
-#define _mm256_maskz_ipcvttps_epu8(U, A) \
+#define _mm256_maskz_ipcvtts_ps_epu8(U, A) \
((__m256i)__builtin_ia32_vcvttps2iubs256_mask( \
(__v8sf)(__m256)(A), (__v8su)(_mm256_setzero_si256()), (__mmask8)(U), \
_MM_FROUND_CUR_DIRECTION))
-
-#define _mm256_ipcvtt_roundps_epu8(A, R) \
- ((__m256i)__builtin_ia32_vcvttps2iubs256_mask( \
- (__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)-1, \
- (const int)R))
-
-#define _mm256_mask_ipcvtt_roundps_epu8(W, U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2iubs256_mask( \
- (__v8sf)(__m256)(A), (__v8su)(W), (__mmask8)(U), (const int)R))
-
-#define _mm256_maskz_ipcvtt_roundps_epu8(U, A, R) \
- ((__m256i)__builtin_ia32_vcvttps2iubs256_mask( \
- (__v8sf)(__m256)(A), (__v8su)_mm256_setzero_si256(), (__mmask8)(U), \
- (const int)R))
#endif // __AVX10_2SATCVTINTRIN_H
diff --git a/clang/test/CodeGen/X86/avx10_2_512convert-builtins.c b/clang/test/CodeGen/X86/avx10_2_512convert-builtins.c
index dcf7bbc005a7c..3ac7c2cc8716f 100644
--- a/clang/test/CodeGen/X86/avx10_2_512convert-builtins.c
+++ b/clang/test/CodeGen/X86/avx10_2_512convert-builtins.c
@@ -59,22 +59,22 @@ __m256i test_mm512_maskz_cvtbiasph_bf8(__mmask32 __U, __m512i __A, __m512h __B)
return _mm512_maskz_cvtbiasph_bf8(__U, __A, __B);
}
-__m256i test_mm512_cvtbiassph_bf8(__m512i __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_cvtbiassph_bf8(
+__m256i test_mm512_cvts_biasph_bf8(__m512i __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_cvts_biasph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s512(
- return _mm512_cvtbiassph_bf8(__A, __B);
+ return _mm512_cvts_biasph_bf8(__A, __B);
}
-__m256i test_mm512_mask_cvtbiassph_bf8(__m256i __W, __mmask32 __U, __m512i __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_cvtbiassph_bf8(
+__m256i test_mm512_mask_cvts_biasph_bf8(__m256i __W, __mmask32 __U, __m512i __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_cvts_biasph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s512(
- return _mm512_mask_cvtbiassph_bf8(__W, __U, __A, __B);
+ return _mm512_mask_cvts_biasph_bf8(__W, __U, __A, __B);
}
-__m256i test_mm512_maskz_cvtbiassph_bf8(__mmask32 __U, __m512i __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_cvtbiassph_bf8(
+__m256i test_mm512_maskz_cvts_biasph_bf8(__mmask32 __U, __m512i __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_cvts_biasph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s512(
- return _mm512_maskz_cvtbiassph_bf8(__U, __A, __B);
+ return _mm512_maskz_cvts_biasph_bf8(__U, __A, __B);
}
__m256i test_mm512_cvtbiasph_hf8(__m512i __A, __m512h __B) {
@@ -95,22 +95,22 @@ __m256i test_mm512_maskz_cvtbiasph_hf8(__mmask32 __U, __m512i __A, __m512h __B)
return _mm512_maskz_cvtbiasph_hf8(__U, __A, __B);
}
-__m256i test_mm512_cvtbiassph_hf8(__m512i __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_cvtbiassph_hf8(
+__m256i test_mm512_cvts_biasph_hf8(__m512i __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_cvts_biasph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s512(
- return _mm512_cvtbiassph_hf8(__A, __B);
+ return _mm512_cvts_biasph_hf8(__A, __B);
}
-__m256i test_mm512_mask_cvtbiassph_hf8(__m256i __W, __mmask32 __U, __m512i __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_cvtbiassph_hf8(
+__m256i test_mm512_mask_cvts_biasph_hf8(__m256i __W, __mmask32 __U, __m512i __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_cvts_biasph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s512(
- return _mm512_mask_cvtbiassph_hf8(__W, __U, __A, __B);
+ return _mm512_mask_cvts_biasph_hf8(__W, __U, __A, __B);
}
-__m256i test_mm512_maskz_cvtbiassph_hf8(__mmask32 __U, __m512i __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_cvtbiassph_hf8(
+__m256i test_mm512_maskz_cvts_biasph_hf8(__mmask32 __U, __m512i __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_cvts_biasph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s512(
- return _mm512_maskz_cvtbiassph_hf8(__U, __A, __B);
+ return _mm512_maskz_cvts_biasph_hf8(__U, __A, __B);
}
__m512i test_mm512_cvt2ph_bf8(__m512h __A, __m512h __B) {
@@ -135,26 +135,26 @@ __m512i test_mm512_maskz_cvt2ph_bf8(__mmask32 __U, __m512h __A, __m512h __B) {
return _mm512_maskz_cvt2ph_bf8(__U, __A, __B);
}
-__m512i test_mm512_cvts2ph_bf8(__m512h __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_cvts2ph_bf8(
+__m512i test_mm512_cvts_2ph_bf8(__m512h __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_cvts_2ph_bf8(
// CHECK: call <64 x i8> @llvm.x86.avx10.vcvt2ph2bf8s512(
- return _mm512_cvts2ph_bf8(__A, __B);
+ return _mm512_cvts_2ph_bf8(__A, __B);
}
-__m512i test_mm512_mask_cvts2ph_bf8(__m512i __W, __mmask64 __U, __m512h __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_cvts2ph_bf8(
+__m512i test_mm512_mask_cvts_2ph_bf8(__m512i __W, __mmask64 __U, __m512h __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_cvts_2ph_bf8(
// CHECK: call <64 x i8> @llvm.x86.avx10.vcvt2ph2bf8s512(
// CHECK: select <64 x i1> %{{.*}}, <64 x i8> %{{.*}}, <64 x i8> %{{.*}}
// CHECK: ret <8 x i64> %{{.*}}
- return _mm512_mask_cvts2ph_bf8(__W, __U, __A, __B);
+ return _mm512_mask_cvts_2ph_bf8(__W, __U, __A, __B);
}
-__m512i test_mm512_maskz_cvts2ph_bf8(__mmask64 __U, __m512h __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_cvts2ph_bf8(
+__m512i test_mm512_maskz_cvts_2ph_bf8(__mmask64 __U, __m512h __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_cvts_2ph_bf8(
// CHECK: call <64 x i8> @llvm.x86.avx10.vcvt2ph2bf8s512(
// CHECK: zeroinitializer
// CHECK: select <64 x i1> %{{.*}}, <64 x i8> %{{.*}}, <64 x i8> %{{.*}}
- return _mm512_maskz_cvts2ph_bf8(__U, __A, __B);
+ return _mm512_maskz_cvts_2ph_bf8(__U, __A, __B);
}
__m512i test_mm512_cvt2ph_hf8(__m512h __A, __m512h __B) {
@@ -179,26 +179,26 @@ __m512i test_mm512_maskz_cvt2ph_hf8(__mmask64 __U, __m512h __A, __m512h __B) {
return _mm512_maskz_cvt2ph_hf8(__U, __A, __B);
}
-__m512i test_mm512_cvts2ph_hf8(__m512h __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_cvts2ph_hf8(
+__m512i test_mm512_cvts_2ph_hf8(__m512h __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_cvts_2ph_hf8(
// CHECK: call <64 x i8> @llvm.x86.avx10.vcvt2ph2hf8s512(
- return _mm512_cvts2ph_hf8(__A, __B);
+ return _mm512_cvts_2ph_hf8(__A, __B);
}
-__m512i test_mm512_mask_cvts2ph_hf8(__m512i __W, __mmask64 __U, __m512h __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_cvts2ph_hf8(
+__m512i test_mm512_mask_cvts_2ph_hf8(__m512i __W, __mmask64 __U, __m512h __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_cvts_2ph_hf8(
// CHECK: call <64 x i8> @llvm.x86.avx10.vcvt2ph2hf8s512(
// CHECK: select <64 x i1> %{{.*}}, <64 x i8> %{{.*}}, <64 x i8> %{{.*}}
// CHECK: ret <8 x i64> %{{.*}}
- return _mm512_mask_cvts2ph_hf8(__W, __U, __A, __B);
+ return _mm512_mask_cvts_2ph_hf8(__W, __U, __A, __B);
}
-__m512i test_mm512_maskz_cvts2ph_hf8(__mmask64 __U, __m512h __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_cvts2ph_hf8(
+__m512i test_mm512_maskz_cvts_2ph_hf8(__mmask64 __U, __m512h __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_cvts_2ph_hf8(
// CHECK: call <64 x i8> @llvm.x86.avx10.vcvt2ph2hf8s512(
// CHECK: zeroinitializer
// CHECK: select <64 x i1> %{{.*}}, <64 x i8> %{{.*}}, <64 x i8> %{{.*}}
- return _mm512_maskz_cvts2ph_hf8(__U, __A, __B);
+ return _mm512_maskz_cvts_2ph_hf8(__U, __A, __B);
}
__m512h test_mm512_cvthf8_ph(__m256i __A) {
@@ -237,22 +237,22 @@ __m256i test_mm512_maskz_cvtph_bf8(__mmask32 __A, __m512h __B) {
return _mm512_maskz_cvtph_bf8(__A, __B);
}
-__m256i test_mm512_cvtsph_bf8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_cvtsph_bf8(
+__m256i test_mm512_cvts_ph_bf8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_cvts_ph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s512(
- return _mm512_cvtsph_bf8(__A);
+ return _mm512_cvts_ph_bf8(__A);
}
-__m256i test_mm512_mask_cvtsph_bf8(__m256i __A, __mmask32 __B, __m512h __C) {
- // CHECK-LABEL: @test_mm512_mask_cvtsph_bf8(
+__m256i test_mm512_mask_cvts_ph_bf8(__m256i __A, __mmask32 __B, __m512h __C) {
+ // CHECK-LABEL: @test_mm512_mask_cvts_ph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s512(
- return _mm512_mask_cvtsph_bf8(__A, __B, __C);
+ return _mm512_mask_cvts_ph_bf8(__A, __B, __C);
}
-__m256i test_mm512_maskz_cvtsph_bf8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_cvtsph_bf8(
+__m256i test_mm512_maskz_cvts_ph_bf8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_cvts_ph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s512(
- return _mm512_maskz_cvtsph_bf8(__A, __B);
+ return _mm512_maskz_cvts_ph_bf8(__A, __B);
}
__m256i test_mm512_cvtph_hf8(__m512h __A) {
@@ -273,22 +273,22 @@ __m256i test_mm512_maskz_cvtph_hf8(__mmask32 __A, __m512h __B) {
return _mm512_maskz_cvtph_hf8(__A, __B);
}
-__m256i test_mm512_cvtsph_hf8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_cvtsph_hf8(
+__m256i test_mm512_cvts_ph_hf8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_cvts_ph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s512(
- return _mm512_cvtsph_hf8(__A);
+ return _mm512_cvts_ph_hf8(__A);
}
-__m256i test_mm512_mask_cvtsph_hf8(__m256i __A, __mmask32 __B, __m512h __C) {
- // CHECK-LABEL: @test_mm512_mask_cvtsph_hf8(
+__m256i test_mm512_mask_cvts_ph_hf8(__m256i __A, __mmask32 __B, __m512h __C) {
+ // CHECK-LABEL: @test_mm512_mask_cvts_ph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s512(
- return _mm512_mask_cvtsph_hf8(__A, __B, __C);
+ return _mm512_mask_cvts_ph_hf8(__A, __B, __C);
}
-__m256i test_mm512_maskz_cvtsph_hf8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_cvtsph_hf8(
+__m256i test_mm512_maskz_cvts_ph_hf8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_cvts_ph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s512(
- return _mm512_maskz_cvtsph_hf8(__A, __B);
+ return _mm512_maskz_cvts_ph_hf8(__A, __B);
}
__m512h test_mm512_cvtbf8_ph(__m256i A) {
diff --git a/clang/test/CodeGen/X86/avx10_2_512minmax-error.c b/clang/test/CodeGen/X86/avx10_2_512minmax-error.c
index 6db7801eb0040..2ee496d317a5a 100644
--- a/clang/test/CodeGen/X86/avx10_2_512minmax-error.c
+++ b/clang/test/CodeGen/X86/avx10_2_512minmax-error.c
@@ -113,17 +113,6 @@ __m512 test_mm512_minmax_round_ps(__m512 __A, __m512 __B) {
return _mm512_minmax_round_ps(__A, __B, 127, 11); // expected-error {{invalid rounding argument}}
}
-__m256d test_mm256_minmax_round_pd(__m256d __A, __m256d __B) {
- return _mm256_minmax_round_pd(__A, __B, 127, 11); // expected-error {{invalid rounding argument}}
-}
-
-__m256h test_mm256_minmax_round_ph(__m256h __A, __m256h __B) {
- return _mm256_minmax_round_ph(__A, __B, 127, 11); // expected-error {{invalid rounding argument}}
-}
-
-__m256 test_mm256_minmax_round_ps(__m256 __A, __m256 __B) {
- return _mm256_minmax_round_ps(__A, __B, 127, 11); // expected-error {{invalid rounding argument}}
-}
__m128d test_mm_minmax_round_sd(__m128d __A, __m128d __B) {
return _mm_minmax_round_sd(__A, __B, 127, 11); // expected-error {{invalid rounding argument}}
}
diff --git a/clang/test/CodeGen/X86/avx10_2_512satcvt-builtins-error.c b/clang/test/CodeGen/X86/avx10_2_512satcvt-builtins-error.c
deleted file mode 100755
index 81bf59153e678..0000000000000
--- a/clang/test/CodeGen/X86/avx10_2_512satcvt-builtins-error.c
+++ /dev/null
@@ -1,198 +0,0 @@
-// RUN: %clang_cc1 %s -flax-vector-conversions=none -ffreestanding -triple=x86_64 -target-feature +avx10.2-512 \
-// RUN: -Wall -Werror -verify
-// RUN: %clang_cc1 %s -flax-vector-conversions=none -ffreestanding -triple=i386 -target-feature +avx10.2-512 \
-// RUN: -Wall -Werror -verify
-
-#include <immintrin.h>
-
-__m512i test_mm512_ipcvt_roundph_epi8(__m512h __A) {
- return _mm512_ipcvt_roundph_epi8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_mask_ipcvt_roundph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
- return _mm512_mask_ipcvt_roundph_epi8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_maskz_ipcvt_roundph_epi8(__mmask32 __A, __m512h __B) {
- return _mm512_maskz_ipcvt_roundph_epi8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_ipcvt_roundph_epu8(__m512h __A) {
- return _mm512_ipcvt_roundph_epu8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_mask_ipcvt_roundph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
- return _mm512_mask_ipcvt_roundph_epu8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_maskz_ipcvt_roundph_epu8(__mmask32 __A, __m512h __B) {
- return _mm512_maskz_ipcvt_roundph_epu8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_ipcvt_roundps_epi8(__m512 __A) {
- return _mm512_ipcvt_roundps_epi8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_mask_ipcvt_roundps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
- return _mm512_mask_ipcvt_roundps_epi8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_maskz_ipcvt_roundps_epi8(__mmask16 __A, __m512 __B) {
- return _mm512_maskz_ipcvt_roundps_epi8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_ipcvt_roundps_epu8(__m512 __A) {
- return _mm512_ipcvt_roundps_epu8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_mask_ipcvt_roundps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
- return _mm512_mask_ipcvt_roundps_epu8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_maskz_ipcvt_roundps_epu8(__mmask16 __A, __m512 __B) {
- return _mm512_maskz_ipcvt_roundps_epu8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_ipcvtt_roundph_epi8(__m512h __A) {
- return _mm512_ipcvtt_roundph_epi8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_mask_ipcvtt_roundph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
- return _mm512_mask_ipcvtt_roundph_epi8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_maskz_ipcvtt_roundph_epi8(__mmask32 __A, __m512h __B) {
- return _mm512_maskz_ipcvtt_roundph_epi8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_ipcvtt_roundph_epu8(__m512h __A) {
- return _mm512_ipcvtt_roundph_epu8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_mask_ipcvtt_roundph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
- return _mm512_mask_ipcvtt_roundph_epu8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_maskz_ipcvtt_roundph_epu8(__mmask32 __A, __m512h __B) {
- return _mm512_maskz_ipcvtt_roundph_epu8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_ipcvtt_roundps_epi8(__m512 __A) {
- return _mm512_ipcvtt_roundps_epi8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_mask_ipcvtt_roundps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
- return _mm512_mask_ipcvtt_roundps_epi8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_maskz_ipcvtt_roundps_epi8(__mmask16 __A, __m512 __B) {
- return _mm512_maskz_ipcvtt_roundps_epi8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_ipcvtt_roundps_epu8(__m512 __A) {
- return _mm512_ipcvtt_roundps_epu8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_mask_ipcvtt_roundps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
- return _mm512_mask_ipcvtt_roundps_epu8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m512i test_mm512_maskz_ipcvtt_roundps_epu8(__mmask16 __A, __m512 __B) {
- return _mm512_maskz_ipcvtt_roundps_epu8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_ipcvt_roundph_epi8(__m256h __A) {
- return _mm256_ipcvt_roundph_epi8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_ipcvt_roundph_epi8(__m256i __S, __mmask16 __A, __m256h __B) {
- return _mm256_mask_ipcvt_roundph_epi8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_ipcvt_roundph_epi8(__mmask16 __A, __m256h __B) {
- return _mm256_maskz_ipcvt_roundph_epi8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_ipcvt_roundph_epu8(__m256h __A) {
- return _mm256_ipcvt_roundph_epu8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_ipcvt_roundph_epu8(__m256i __S, __mmask16 __A, __m256h __B) {
- return _mm256_mask_ipcvt_roundph_epu8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_ipcvt_roundph_epu8(__mmask16 __A, __m256h __B) {
- return _mm256_maskz_ipcvt_roundph_epu8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_ipcvt_roundps_epi8(__m256 __A) {
- return _mm256_ipcvt_roundps_epi8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_ipcvt_roundps_epi8(__m256i __S, __mmask8 __A, __m256 __B) {
- return _mm256_mask_ipcvt_roundps_epi8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_ipcvt_roundps_epi8(__mmask8 __A, __m256 __B) {
- return _mm256_maskz_ipcvt_roundps_epi8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_ipcvt_roundps_epu8(__m256 __A) {
- return _mm256_ipcvt_roundps_epu8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_ipcvt_roundps_epu8(__m256i __S, __mmask8 __A, __m256 __B) {
- return _mm256_mask_ipcvt_roundps_epu8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_ipcvt_roundps_epu8(__mmask8 __A, __m256 __B) {
- return _mm256_maskz_ipcvt_roundps_epu8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_ipcvtt_roundph_epi8(__m256h __A) {
- return _mm256_ipcvtt_roundph_epi8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_ipcvtt_roundph_epi8(__m256i __S, __mmask16 __A, __m256h __B) {
- return _mm256_mask_ipcvtt_roundph_epi8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_ipcvtt_roundph_epi8(__mmask16 __A, __m256h __B) {
- return _mm256_maskz_ipcvtt_roundph_epi8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_ipcvtt_roundph_epu8(__m256h __A) {
- return _mm256_ipcvtt_roundph_epu8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_ipcvtt_roundph_epu8(__m256i __S, __mmask16 __A, __m256h __B) {
- return _mm256_mask_ipcvtt_roundph_epu8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_ipcvtt_roundph_epu8(__mmask16 __A, __m256h __B) {
- return _mm256_maskz_ipcvtt_roundph_epu8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_ipcvtt_roundps_epi8(__m256 __A) {
- return _mm256_ipcvtt_roundps_epi8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_ipcvtt_roundps_epi8(__m256i __S, __mmask8 __A, __m256 __B) {
- return _mm256_mask_ipcvtt_roundps_epi8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_ipcvtt_roundps_epi8(__mmask8 __A, __m256 __B) {
- return _mm256_maskz_ipcvtt_roundps_epi8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_ipcvtt_roundps_epu8(__m256 __A) {
- return _mm256_ipcvtt_roundps_epu8(__A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_ipcvtt_roundps_epu8(__m256i __S, __mmask8 __A, __m256 __B) {
- return _mm256_mask_ipcvtt_roundps_epu8(__S, __A, __B, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_ipcvtt_roundps_epu8(__mmask8 __A, __m256 __B) {
- return _mm256_maskz_ipcvtt_roundps_epu8(__A, __B, 22); // expected-error {{invalid rounding argument}}
-}
diff --git a/clang/test/CodeGen/X86/avx10_2_512satcvt-builtins.c b/clang/test/CodeGen/X86/avx10_2_512satcvt-builtins.c
index 0d3b0c278b44a..0a1c329144398 100755
--- a/clang/test/CodeGen/X86/avx10_2_512satcvt-builtins.c
+++ b/clang/test/CodeGen/X86/avx10_2_512satcvt-builtins.c
@@ -5,375 +5,375 @@
#include <immintrin.h>
-__m512i test_mm512_ipcvtbf16_epi8(__m512bh __A) {
- // CHECK-LABEL: @test_mm512_ipcvtbf16_epi8(
+__m512i test_mm512_ipcvts_bf16_epi8(__m512bh __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvtbf162ibs512
- return _mm512_ipcvtbf16_epi8(__A);
+ return _mm512_ipcvts_bf16_epi8(__A);
}
-__m512i test_mm512_mask_ipcvtbf16_epi8(__m512i __S, __mmask32 __A, __m512bh __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtbf16_epi8(
+__m512i test_mm512_mask_ipcvts_bf16_epi8(__m512i __S, __mmask32 __A, __m512bh __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvtbf162ibs512
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
- return _mm512_mask_ipcvtbf16_epi8(__S, __A, __B);
+ return _mm512_mask_ipcvts_bf16_epi8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvtbf16_epi8(__mmask32 __A, __m512bh __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtbf16_epi8
+__m512i test_mm512_maskz_ipcvts_bf16_epi8(__mmask32 __A, __m512bh __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_bf16_epi8
// CHECK: @llvm.x86.avx10.vcvtbf162ibs512
// CHECK: zeroinitializer
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
- return _mm512_maskz_ipcvtbf16_epi8(__A, __B);
+ return _mm512_maskz_ipcvts_bf16_epi8(__A, __B);
}
-__m512i test_mm512_ipcvtbf16_epu8(__m512bh __A) {
- // CHECK-LABEL: @test_mm512_ipcvtbf16_epu8(
+__m512i test_mm512_ipcvts_bf16_epu8(__m512bh __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvtbf162iubs512
- return _mm512_ipcvtbf16_epu8(__A);
+ return _mm512_ipcvts_bf16_epu8(__A);
}
-__m512i test_mm512_mask_ipcvtbf16_epu8(__m512i __S, __mmask32 __A, __m512bh __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtbf16_epu8(
+__m512i test_mm512_mask_ipcvts_bf16_epu8(__m512i __S, __mmask32 __A, __m512bh __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvtbf162iubs512
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
- return _mm512_mask_ipcvtbf16_epu8(__S, __A, __B);
+ return _mm512_mask_ipcvts_bf16_epu8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvtbf16_epu8(__mmask32 __A, __m512bh __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtbf16_epu8
+__m512i test_mm512_maskz_ipcvts_bf16_epu8(__mmask32 __A, __m512bh __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_bf16_epu8
// CHECK: @llvm.x86.avx10.vcvtbf162iubs512
// CHECK: zeroinitializer
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
- return _mm512_maskz_ipcvtbf16_epu8(__A, __B);
+ return _mm512_maskz_ipcvts_bf16_epu8(__A, __B);
}
-__m512i test_mm512_ipcvtph_epi8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_ipcvtph_epi8(
+__m512i test_mm512_ipcvts_ph_epi8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs512
- return _mm512_ipcvtph_epi8(__A);
+ return _mm512_ipcvts_ph_epi8(__A);
}
-__m512i test_mm512_mask_ipcvtph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtph_epi8(
+__m512i test_mm512_mask_ipcvts_ph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs512
- return _mm512_mask_ipcvtph_epi8(__S, __A, __B);
+ return _mm512_mask_ipcvts_ph_epi8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvtph_epi8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtph_epi8(
+__m512i test_mm512_maskz_ipcvts_ph_epi8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs512
- return _mm512_maskz_ipcvtph_epi8(__A, __B);
+ return _mm512_maskz_ipcvts_ph_epi8(__A, __B);
}
-__m512i test_mm512_ipcvt_roundph_epi8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_ipcvt_roundph_epi8(
+__m512i test_mm512_ipcvts_roundph_epi8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_roundph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs512
- return _mm512_ipcvt_roundph_epi8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_ipcvts_roundph_epi8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_mask_ipcvt_roundph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvt_roundph_epi8
+__m512i test_mm512_mask_ipcvts_roundph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_roundph_epi8
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs512
- return _mm512_mask_ipcvt_roundph_epi8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_mask_ipcvts_roundph_epi8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_maskz_ipcvt_roundph_epi8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvt_roundph_epi8
+__m512i test_mm512_maskz_ipcvts_roundph_epi8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_roundph_epi8
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs512
- return _mm512_maskz_ipcvt_roundph_epi8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_maskz_ipcvts_roundph_epi8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_ipcvtph_epu8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_ipcvtph_epu8(
+__m512i test_mm512_ipcvts_ph_epu8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs512
- return _mm512_ipcvtph_epu8(__A);
+ return _mm512_ipcvts_ph_epu8(__A);
}
-__m512i test_mm512_mask_ipcvtph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtph_epu8(
+__m512i test_mm512_mask_ipcvts_ph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs512
- return _mm512_mask_ipcvtph_epu8(__S, __A, __B);
+ return _mm512_mask_ipcvts_ph_epu8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvtph_epu8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtph_epu8(
+__m512i test_mm512_maskz_ipcvts_ph_epu8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs512
- return _mm512_maskz_ipcvtph_epu8(__A, __B);
+ return _mm512_maskz_ipcvts_ph_epu8(__A, __B);
}
-__m512i test_mm512_ipcvt_roundph_epu8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_ipcvt_roundph_epu8(
+__m512i test_mm512_ipcvts_roundph_epu8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_roundph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs512
- return _mm512_ipcvt_roundph_epu8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_ipcvts_roundph_epu8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_mask_ipcvt_roundph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvt_roundph_epu8
+__m512i test_mm512_mask_ipcvts_roundph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_roundph_epu8
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs512
- return _mm512_mask_ipcvt_roundph_epu8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_mask_ipcvts_roundph_epu8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_maskz_ipcvt_roundph_epu8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvt_roundph_epu8
+__m512i test_mm512_maskz_ipcvts_roundph_epu8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_roundph_epu8
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs512
- return _mm512_maskz_ipcvt_roundph_epu8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_maskz_ipcvts_roundph_epu8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_ipcvtps_epi8(__m512 __A) {
- // CHECK-LABEL: @test_mm512_ipcvtps_epi8(
+__m512i test_mm512_ipcvts_ps_epi8(__m512 __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs512
- return _mm512_ipcvtps_epi8(__A);
+ return _mm512_ipcvts_ps_epi8(__A);
}
-__m512i test_mm512_mask_ipcvtps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtps_epi8(
+__m512i test_mm512_mask_ipcvts_ps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs512
- return _mm512_mask_ipcvtps_epi8(__S, __A, __B);
+ return _mm512_mask_ipcvts_ps_epi8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvtps_epi8(__mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtps_epi8(
+__m512i test_mm512_maskz_ipcvts_ps_epi8(__mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs512
- return _mm512_maskz_ipcvtps_epi8(__A, __B);
+ return _mm512_maskz_ipcvts_ps_epi8(__A, __B);
}
-__m512i test_mm512_ipcvt_roundps_epi8(__m512 __A) {
- // CHECK-LABEL: @test_mm512_ipcvt_roundps_epi8(
+__m512i test_mm512_ipcvts_roundps_epi8(__m512 __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_roundps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs512
- return _mm512_ipcvt_roundps_epi8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_ipcvts_roundps_epi8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_mask_ipcvt_roundps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvt_roundps_epi8
+__m512i test_mm512_mask_ipcvts_roundps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_roundps_epi8
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs512
- return _mm512_mask_ipcvt_roundps_epi8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_mask_ipcvts_roundps_epi8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_maskz_ipcvt_roundps_epi8(__mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvt_roundps_epi8
+__m512i test_mm512_maskz_ipcvts_roundps_epi8(__mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_roundps_epi8
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs512
- return _mm512_maskz_ipcvt_roundps_epi8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_maskz_ipcvts_roundps_epi8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_ipcvtps_epu8(__m512 __A) {
- // CHECK-LABEL: @test_mm512_ipcvtps_epu8(
+__m512i test_mm512_ipcvts_ps_epu8(__m512 __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs512
- return _mm512_ipcvtps_epu8(__A);
+ return _mm512_ipcvts_ps_epu8(__A);
}
-__m512i test_mm512_mask_ipcvtps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtps_epu8(
+__m512i test_mm512_mask_ipcvts_ps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs512
- return _mm512_mask_ipcvtps_epu8(__S, __A, __B);
+ return _mm512_mask_ipcvts_ps_epu8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvtps_epu8(__mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtps_epu8(
+__m512i test_mm512_maskz_ipcvts_ps_epu8(__mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs512
- return _mm512_maskz_ipcvtps_epu8(__A, __B);
+ return _mm512_maskz_ipcvts_ps_epu8(__A, __B);
}
-__m512i test_mm512_ipcvt_roundps_epu8(__m512 __A) {
- // CHECK-LABEL: @test_mm512_ipcvt_roundps_epu8(
+__m512i test_mm512_ipcvts_roundps_epu8(__m512 __A) {
+ // CHECK-LABEL: @test_mm512_ipcvts_roundps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs512
- return _mm512_ipcvt_roundps_epu8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_ipcvts_roundps_epu8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_mask_ipcvt_roundps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvt_roundps_epu8
+__m512i test_mm512_mask_ipcvts_roundps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvts_roundps_epu8
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs512
- return _mm512_mask_ipcvt_roundps_epu8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_mask_ipcvts_roundps_epu8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_maskz_ipcvt_roundps_epu8(__mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvt_roundps_epu8
+__m512i test_mm512_maskz_ipcvts_roundps_epu8(__mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvts_roundps_epu8
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs512
- return _mm512_maskz_ipcvt_roundps_epu8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm512_maskz_ipcvts_roundps_epu8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_ipcvttbf16_epi8(__m512bh __A) {
- // CHECK-LABEL: @test_mm512_ipcvttbf16_epi8(
+__m512i test_mm512_ipcvtts_bf16_epi8(__m512bh __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvttbf162ibs512(
- return _mm512_ipcvttbf16_epi8(__A);
+ return _mm512_ipcvtts_bf16_epi8(__A);
}
-__m512i test_mm512_mask_ipcvttbf16_epi8(__m512i __S, __mmask32 __A, __m512bh __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvttbf16_epi8(
+__m512i test_mm512_mask_ipcvtts_bf16_epi8(__m512i __S, __mmask32 __A, __m512bh __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvttbf162ibs512(
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
- return _mm512_mask_ipcvttbf16_epi8(__S, __A, __B);
+ return _mm512_mask_ipcvtts_bf16_epi8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvttbf16_epi8(__mmask32 __A, __m512bh __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvttbf16_epi8
+__m512i test_mm512_maskz_ipcvtts_bf16_epi8(__mmask32 __A, __m512bh __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_bf16_epi8
// CHECK: @llvm.x86.avx10.vcvttbf162ibs512(
// CHECK: zeroinitializer
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
- return _mm512_maskz_ipcvttbf16_epi8(__A, __B);
+ return _mm512_maskz_ipcvtts_bf16_epi8(__A, __B);
}
-__m512i test_mm512_ipcvttbf16_epu8(__m512bh __A) {
- // CHECK-LABEL: @test_mm512_ipcvttbf16_epu8(
+__m512i test_mm512_ipcvtts_bf16_epu8(__m512bh __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvttbf162iubs512(
- return _mm512_ipcvttbf16_epu8(__A);
+ return _mm512_ipcvtts_bf16_epu8(__A);
}
-__m512i test_mm512_mask_ipcvttbf16_epu8(__m512i __S, __mmask32 __A, __m512bh __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvttbf16_epu8(
+__m512i test_mm512_mask_ipcvtts_bf16_epu8(__m512i __S, __mmask32 __A, __m512bh __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvttbf162iubs512(
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
- return _mm512_mask_ipcvttbf16_epu8(__S, __A, __B);
+ return _mm512_mask_ipcvtts_bf16_epu8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvttbf16_epu8(__mmask32 __A, __m512bh __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvttbf16_epu8
+__m512i test_mm512_maskz_ipcvtts_bf16_epu8(__mmask32 __A, __m512bh __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_bf16_epu8
// CHECK: @llvm.x86.avx10.vcvttbf162iubs512(
// CHECK: zeroinitializer
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
- return _mm512_maskz_ipcvttbf16_epu8(__A, __B);
+ return _mm512_maskz_ipcvtts_bf16_epu8(__A, __B);
}
-__m512i test_mm512_ipcvttph_epi8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_ipcvttph_epi8(
+__m512i test_mm512_ipcvtts_ph_epi8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs512
- return _mm512_ipcvttph_epi8(__A);
+ return _mm512_ipcvtts_ph_epi8(__A);
}
-__m512i test_mm512_mask_ipcvttph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvttph_epi8(
+__m512i test_mm512_mask_ipcvtts_ph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs512
- return _mm512_mask_ipcvttph_epi8(__S, __A, __B);
+ return _mm512_mask_ipcvtts_ph_epi8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvttph_epi8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvttph_epi8
+__m512i test_mm512_maskz_ipcvtts_ph_epi8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_ph_epi8
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs512
- return _mm512_maskz_ipcvttph_epi8(__A, __B);
+ return _mm512_maskz_ipcvtts_ph_epi8(__A, __B);
}
-__m512i test_mm512_ipcvtt_roundph_epi8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_ipcvtt_roundph_epi8
+__m512i test_mm512_ipcvtts_roundph_epi8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_roundph_epi8
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs512
- return _mm512_ipcvtt_roundph_epi8(__A, _MM_FROUND_NO_EXC);
+ return _mm512_ipcvtts_roundph_epi8(__A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_mask_ipcvtt_roundph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtt_roundph_epi8
+__m512i test_mm512_mask_ipcvtts_roundph_epi8(__m512i __S, __mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_roundph_epi8
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs512
- return _mm512_mask_ipcvtt_roundph_epi8(__S, __A, __B, _MM_FROUND_NO_EXC);
+ return _mm512_mask_ipcvtts_roundph_epi8(__S, __A, __B, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_maskz_ipcvtt_roundph_epi8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtt_roundph_epi8
+__m512i test_mm512_maskz_ipcvtts_roundph_epi8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_roundph_epi8
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs512
- return _mm512_maskz_ipcvtt_roundph_epi8(__A, __B, _MM_FROUND_NO_EXC);
+ return _mm512_maskz_ipcvtts_roundph_epi8(__A, __B, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_ipcvttph_epu8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_ipcvttph_epu8(
+__m512i test_mm512_ipcvtts_ph_epu8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs512
- return _mm512_ipcvttph_epu8(__A);
+ return _mm512_ipcvtts_ph_epu8(__A);
}
-__m512i test_mm512_mask_ipcvttph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvttph_epu8(
+__m512i test_mm512_mask_ipcvtts_ph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs512
- return _mm512_mask_ipcvttph_epu8(__S, __A, __B);
+ return _mm512_mask_ipcvtts_ph_epu8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvttph_epu8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvttph_epu8
+__m512i test_mm512_maskz_ipcvtts_ph_epu8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_ph_epu8
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs512
- return _mm512_maskz_ipcvttph_epu8(__A, __B);
+ return _mm512_maskz_ipcvtts_ph_epu8(__A, __B);
}
-__m512i test_mm512_ipcvtt_roundph_epu8(__m512h __A) {
- // CHECK-LABEL: @test_mm512_ipcvtt_roundph_epu8
+__m512i test_mm512_ipcvtts_roundph_epu8(__m512h __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_roundph_epu8
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs512
- return _mm512_ipcvtt_roundph_epu8(__A, _MM_FROUND_NO_EXC);
+ return _mm512_ipcvtts_roundph_epu8(__A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_mask_ipcvtt_roundph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtt_roundph_epu8
+__m512i test_mm512_mask_ipcvtts_roundph_epu8(__m512i __S, __mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_roundph_epu8
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs512
- return _mm512_mask_ipcvtt_roundph_epu8(__S, __A, __B, _MM_FROUND_NO_EXC);
+ return _mm512_mask_ipcvtts_roundph_epu8(__S, __A, __B, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_maskz_ipcvtt_roundph_epu8(__mmask32 __A, __m512h __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtt_roundph_epu8
+__m512i test_mm512_maskz_ipcvtts_roundph_epu8(__mmask32 __A, __m512h __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_roundph_epu8
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs512
- return _mm512_maskz_ipcvtt_roundph_epu8(__A, __B, _MM_FROUND_NO_EXC);
+ return _mm512_maskz_ipcvtts_roundph_epu8(__A, __B, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_ipcvttps_epi8(__m512 __A) {
- // CHECK-LABEL: @test_mm512_ipcvttps_epi8(
+__m512i test_mm512_ipcvtts_ps_epi8(__m512 __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs512
- return _mm512_ipcvttps_epi8(__A);
+ return _mm512_ipcvtts_ps_epi8(__A);
}
-__m512i test_mm512_mask_ipcvttps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvttps_epi8(
+__m512i test_mm512_mask_ipcvtts_ps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs512
- return _mm512_mask_ipcvttps_epi8(__S, __A, __B);
+ return _mm512_mask_ipcvtts_ps_epi8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvttps_epi8(__mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvttps_epi8
+__m512i test_mm512_maskz_ipcvtts_ps_epi8(__mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_ps_epi8
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs512
- return _mm512_maskz_ipcvttps_epi8(__A, __B);
+ return _mm512_maskz_ipcvtts_ps_epi8(__A, __B);
}
-__m512i test_mm512_ipcvtt_roundps_epi8(__m512 __A) {
- // CHECK-LABEL: @test_mm512_ipcvtt_roundps_epi8
+__m512i test_mm512_ipcvtts_roundps_epi8(__m512 __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_roundps_epi8
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs512
- return _mm512_ipcvtt_roundps_epi8(__A, _MM_FROUND_NO_EXC);
+ return _mm512_ipcvtts_roundps_epi8(__A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_mask_ipcvtt_roundps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtt_roundps_epi8
+__m512i test_mm512_mask_ipcvtts_roundps_epi8(__m512i __S, __mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_roundps_epi8
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs512
- return _mm512_mask_ipcvtt_roundps_epi8(__S, __A, __B, _MM_FROUND_NO_EXC);
+ return _mm512_mask_ipcvtts_roundps_epi8(__S, __A, __B, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_maskz_ipcvtt_roundps_epi8(__mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtt_roundps_epi8
+__m512i test_mm512_maskz_ipcvtts_roundps_epi8(__mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_roundps_epi8
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs512
- return _mm512_maskz_ipcvtt_roundps_epi8(__A, __B, _MM_FROUND_NO_EXC);
+ return _mm512_maskz_ipcvtts_roundps_epi8(__A, __B, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_ipcvttps_epu8(__m512 __A) {
- // CHECK-LABEL: @test_mm512_ipcvttps_epu8(
+__m512i test_mm512_ipcvtts_ps_epu8(__m512 __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs512
- return _mm512_ipcvttps_epu8(__A);
+ return _mm512_ipcvtts_ps_epu8(__A);
}
-__m512i test_mm512_mask_ipcvttps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvttps_epu8(
+__m512i test_mm512_mask_ipcvtts_ps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs512
- return _mm512_mask_ipcvttps_epu8(__S, __A, __B);
+ return _mm512_mask_ipcvtts_ps_epu8(__S, __A, __B);
}
-__m512i test_mm512_maskz_ipcvttps_epu8(__mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvttps_epu8
+__m512i test_mm512_maskz_ipcvtts_ps_epu8(__mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_ps_epu8
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs512
- return _mm512_maskz_ipcvttps_epu8(__A, __B);
+ return _mm512_maskz_ipcvtts_ps_epu8(__A, __B);
}
-__m512i test_mm512_ipcvtt_roundps_epu8(__m512 __A) {
- // CHECK-LABEL: @test_mm512_ipcvtt_roundps_epu8
+__m512i test_mm512_ipcvtts_roundps_epu8(__m512 __A) {
+ // CHECK-LABEL: @test_mm512_ipcvtts_roundps_epu8
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs512
- return _mm512_ipcvtt_roundps_epu8(__A, _MM_FROUND_NO_EXC);
+ return _mm512_ipcvtts_roundps_epu8(__A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_mask_ipcvtt_roundps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_mask_ipcvtt_roundps_epu8
+__m512i test_mm512_mask_ipcvtts_roundps_epu8(__m512i __S, __mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_mask_ipcvtts_roundps_epu8
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs512
- return _mm512_mask_ipcvtt_roundps_epu8(__S, __A, __B, _MM_FROUND_NO_EXC);
+ return _mm512_mask_ipcvtts_roundps_epu8(__S, __A, __B, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_maskz_ipcvtt_roundps_epu8(__mmask16 __A, __m512 __B) {
- // CHECK-LABEL: @test_mm512_maskz_ipcvtt_roundps_epu8
+__m512i test_mm512_maskz_ipcvtts_roundps_epu8(__mmask16 __A, __m512 __B) {
+ // CHECK-LABEL: @test_mm512_maskz_ipcvtts_roundps_epu8
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs512
- return _mm512_maskz_ipcvtt_roundps_epu8(__A, __B, _MM_FROUND_NO_EXC);
+ return _mm512_maskz_ipcvtts_roundps_epu8(__A, __B, _MM_FROUND_NO_EXC);
}
diff --git a/clang/test/CodeGen/X86/avx10_2_512satcvtds-builtins-x64.c b/clang/test/CodeGen/X86/avx10_2_512satcvtds-builtins-x64.c
index 8c8959a03d7bd..1aaa6544d1f9c 100644
--- a/clang/test/CodeGen/X86/avx10_2_512satcvtds-builtins-x64.c
+++ b/clang/test/CodeGen/X86/avx10_2_512satcvtds-builtins-x64.c
@@ -3,58 +3,58 @@
#include <immintrin.h>
#include <stddef.h>
-long long test_mm_cvttssd_si64(__m128d __A) {
- // CHECK-LABEL: @test_mm_cvttssd_si64(
+long long test_mm_cvtts_sd_si64(__m128d __A) {
+ // CHECK-LABEL: @test_mm_cvtts_sd_si64(
// CHECK: @llvm.x86.avx10.vcvttsd2sis64(<2 x double>
return _mm_cvtts_roundsd_si64(__A, _MM_FROUND_NO_EXC);
}
-long long test_mm_cvttssd_i64(__m128d __A) {
- // CHECK-LABEL: @test_mm_cvttssd_i64(
+long long test_mm_cvtts_sd_i64(__m128d __A) {
+ // CHECK-LABEL: @test_mm_cvtts_sd_i64(
// CHECK: @llvm.x86.avx10.vcvttsd2sis64(<2 x double>
return _mm_cvtts_roundsd_i64(__A, _MM_FROUND_NO_EXC);
}
-unsigned long long test_mm_cvttssd_u64(__m128d __A) {
- // CHECK-LABEL: @test_mm_cvttssd_u64(
+unsigned long long test_mm_cvtts_sd_u64(__m128d __A) {
+ // CHECK-LABEL: @test_mm_cvtts_sd_u64(
// CHECK: @llvm.x86.avx10.vcvttsd2usis64(<2 x double>
return _mm_cvtts_roundsd_u64(__A, _MM_FROUND_NO_EXC);
}
-float test_mm_cvttsss_i64(__m128 __A) {
- // CHECK-LABEL: @test_mm_cvttsss_i64(
+float test_mm_cvtts_ss_i64(__m128 __A) {
+ // CHECK-LABEL: @test_mm_cvtts_ss_i64(
// CHECK: @llvm.x86.avx10.vcvttss2sis64(<4 x float>
return _mm_cvtts_roundss_i64(__A, _MM_FROUND_NO_EXC);
}
-long long test_mm_cvttsss_si64(__m128 __A) {
- // CHECK-LABEL: @test_mm_cvttsss_si64(
+long long test_mm_cvtts_ss_si64(__m128 __A) {
+ // CHECK-LABEL: @test_mm_cvtts_ss_si64(
// CHECK: @llvm.x86.avx10.vcvttss2sis64(<4 x float>
return _mm_cvtts_roundss_si64(__A, _MM_FROUND_NO_EXC);
}
-unsigned long long test_mm_cvttsss_u64(__m128 __A) {
- // CHECK-LABEL: @test_mm_cvttsss_u64(
+unsigned long long test_mm_cvtts_ss_u64(__m128 __A) {
+ // CHECK-LABEL: @test_mm_cvtts_ss_u64(
// CHECK: @llvm.x86.avx10.vcvttss2usis64(<4 x float>
return _mm_cvtts_roundss_u64(__A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_cvttspd_epi64(__m512d A) {
- // CHECK-LABEL: test_mm512_cvttspd_epi64
+__m512i test_mm512_cvtts_pd_epi64(__m512d A) {
+ // CHECK-LABEL: test_mm512_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.512(<8 x double>
- return _mm512_cvttspd_epi64(A);
+ return _mm512_cvtts_pd_epi64(A);
}
-__m512i test_mm512_mask_cvttspd_epi64(__m512i W, __mmask8 U, __m512d A) {
- // CHECK-LABEL: test_mm512_mask_cvttspd_epi64
+__m512i test_mm512_mask_cvtts_pd_epi64(__m512i W, __mmask8 U, __m512d A) {
+ // CHECK-LABEL: test_mm512_mask_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.512(<8 x double>
- return _mm512_mask_cvttspd_epi64(W, U, A);
+ return _mm512_mask_cvtts_pd_epi64(W, U, A);
}
-__m512i test_mm512_maskz_cvttspd_epi64(__mmask8 U, __m512d A) {
- // CHECK-LABEL: test_mm512_maskz_cvttspd_epi64
+__m512i test_mm512_maskz_cvtts_pd_epi64(__mmask8 U, __m512d A) {
+ // CHECK-LABEL: test_mm512_maskz_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.512(<8 x double>
- return _mm512_maskz_cvttspd_epi64(U, A);
+ return _mm512_maskz_cvtts_pd_epi64(U, A);
}
__m512i test_mm512_cvtts_roundpd_epi64(__m512d A) {
@@ -75,22 +75,22 @@ __m512i test_mm512_maskz_cvtts_roundpd_epi64(__mmask8 U, __m512d A) {
return _mm512_maskz_cvtts_roundpd_epi64(U, A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_cvttspd_epu64(__m512d A) {
- // CHECK-LABEL: test_mm512_cvttspd_epu64
+__m512i test_mm512_cvtts_pd_epu64(__m512d A) {
+ // CHECK-LABEL: test_mm512_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.512(<8 x double>
- return _mm512_cvttspd_epu64(A);
+ return _mm512_cvtts_pd_epu64(A);
}
-__m512i test_mm512_mask_cvttspd_epu64(__m512i W, __mmask8 U, __m512d A) {
- // CHECK-LABEL: test_mm512_mask_cvttspd_epu64
+__m512i test_mm512_mask_cvtts_pd_epu64(__m512i W, __mmask8 U, __m512d A) {
+ // CHECK-LABEL: test_mm512_mask_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.512(<8 x double>
- return _mm512_mask_cvttspd_epu64(W, U, A);
+ return _mm512_mask_cvtts_pd_epu64(W, U, A);
}
-__m512i test_mm512_maskz_cvttspd_epu64(__mmask8 U, __m512d A) {
- // CHECK-LABEL: test_mm512_maskz_cvttspd_epu64
+__m512i test_mm512_maskz_cvtts_pd_epu64(__mmask8 U, __m512d A) {
+ // CHECK-LABEL: test_mm512_maskz_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.512(<8 x double>
- return _mm512_maskz_cvttspd_epu64(U, A);
+ return _mm512_maskz_cvtts_pd_epu64(U, A);
}
__m512i test_mm512_cvtts_roundpd_epu64(__m512d A) {
@@ -111,22 +111,22 @@ __m512i test_mm512_maskz_cvtts_roundpd_epu64(__mmask8 U, __m512d A) {
return _mm512_maskz_cvtts_roundpd_epu64(U, A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_cvttsps_epi64(__m256 A) {
- // CHECK-LABEL: test_mm512_cvttsps_epi64
+__m512i test_mm512_cvtts_ps_epi64(__m256 A) {
+ // CHECK-LABEL: test_mm512_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.512(<8 x float>
- return _mm512_cvttsps_epi64(A);
+ return _mm512_cvtts_ps_epi64(A);
}
-__m512i test_mm512_mask_cvttsps_epi64(__m512i W, __mmask8 U, __m256 A) {
- // CHECK-LABEL: test_mm512_mask_cvttsps_epi64
+__m512i test_mm512_mask_cvtts_ps_epi64(__m512i W, __mmask8 U, __m256 A) {
+ // CHECK-LABEL: test_mm512_mask_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.512(<8 x float>
- return _mm512_mask_cvttsps_epi64(W, U, A);
+ return _mm512_mask_cvtts_ps_epi64(W, U, A);
}
-__m512i test_mm512_maskz_cvttsps_epi64(__mmask8 U, __m256 A) {
- // CHECK-LABEL: test_mm512_maskz_cvttsps_epi64
+__m512i test_mm512_maskz_cvtts_ps_epi64(__mmask8 U, __m256 A) {
+ // CHECK-LABEL: test_mm512_maskz_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.512(<8 x float>
- return _mm512_maskz_cvttsps_epi64(U, A);
+ return _mm512_maskz_cvtts_ps_epi64(U, A);
}
__m512i test_mm512_cvtts_roundps_epi64(__m256 A) {
@@ -147,22 +147,22 @@ __m512i test_mm512_maskz_cvtts_roundps_epi64(__mmask8 U, __m256 A) {
return _mm512_maskz_cvtts_roundps_epi64(U, A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_cvttsps_epu64(__m256 A) {
- // CHECK-LABEL: test_mm512_cvttsps_epu64
+__m512i test_mm512_cvtts_ps_epu64(__m256 A) {
+ // CHECK-LABEL: test_mm512_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.512(<8 x float>
- return _mm512_cvttsps_epu64(A);
+ return _mm512_cvtts_ps_epu64(A);
}
-__m512i test_mm512_mask_cvttsps_epu64(__m512i W, __mmask8 U, __m256 A) {
- // CHECK-LABEL: test_mm512_mask_cvttsps_epu64
+__m512i test_mm512_mask_cvtts_ps_epu64(__m512i W, __mmask8 U, __m256 A) {
+ // CHECK-LABEL: test_mm512_mask_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.512(<8 x float>
- return _mm512_mask_cvttsps_epu64(W, U, A);
+ return _mm512_mask_cvtts_ps_epu64(W, U, A);
}
-__m512i test_mm512_maskz_cvttsps_epu64(__mmask8 U, __m256 A) {
- // CHECK-LABEL: test_mm512_maskz_cvttsps_epu64
+__m512i test_mm512_maskz_cvtts_ps_epu64(__mmask8 U, __m256 A) {
+ // CHECK-LABEL: test_mm512_maskz_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.512(<8 x float>
- return _mm512_maskz_cvttsps_epu64(U, A);
+ return _mm512_maskz_cvtts_ps_epu64(U, A);
}
__m512i test_mm512_cvtts_roundps_epu64(__m256 A) {
diff --git a/clang/test/CodeGen/X86/avx10_2_512satcvtds-builtins.c b/clang/test/CodeGen/X86/avx10_2_512satcvtds-builtins.c
index cccee04627d22..c1b6df3cb07f5 100644
--- a/clang/test/CodeGen/X86/avx10_2_512satcvtds-builtins.c
+++ b/clang/test/CodeGen/X86/avx10_2_512satcvtds-builtins.c
@@ -4,22 +4,22 @@
#include <immintrin.h>
#include <stddef.h>
-__m256i test_mm512_cvttspd_epi32(__m512d A) {
- // CHECK-LABEL: test_mm512_cvttspd_epi32
+__m256i test_mm512_cvtts_pd_epi32(__m512d A) {
+ // CHECK-LABEL: test_mm512_cvtts_pd_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.512(<8 x double>
- return _mm512_cvttspd_epi32(A);
+ return _mm512_cvtts_pd_epi32(A);
}
-__m256i test_mm512_mask_cvttspd_epi32(__m256i W, __mmask8 U, __m512d A) {
- // CHECK-LABEL: test_mm512_mask_cvttspd_epi32
+__m256i test_mm512_mask_cvtts_pd_epi32(__m256i W, __mmask8 U, __m512d A) {
+ // CHECK-LABEL: test_mm512_mask_cvtts_pd_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.512(<8 x double>
- return _mm512_mask_cvttspd_epi32(W, U, A);
+ return _mm512_mask_cvtts_pd_epi32(W, U, A);
}
-__m256i test_mm512_maskz_cvttspd_epi32(__mmask8 U, __m512d A) {
- // CHECK-LABEL: test_mm512_maskz_cvttspd_epi32
+__m256i test_mm512_maskz_cvtts_pd_epi32(__mmask8 U, __m512d A) {
+ // CHECK-LABEL: test_mm512_maskz_cvtts_pd_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.512(<8 x double>
- return _mm512_maskz_cvttspd_epi32(U, A);
+ return _mm512_maskz_cvtts_pd_epi32(U, A);
}
__m256i test_mm512_cvtts_roundpd_epi32(__m512d A) {
@@ -40,22 +40,22 @@ __m256i test_mm512_maskz_cvtts_roundpd_epi32(__mmask8 U, __m512d A) {
return _mm512_maskz_cvtts_roundpd_epi32(U, A, _MM_FROUND_NO_EXC);
}
-__m256i test_mm512_cvttspd_epu32(__m512d A) {
- // CHECK-LABEL: test_mm512_cvttspd_epu32
+__m256i test_mm512_cvtts_pd_epu32(__m512d A) {
+ // CHECK-LABEL: test_mm512_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.512(<8 x double>
- return _mm512_cvttspd_epu32(A);
+ return _mm512_cvtts_pd_epu32(A);
}
-__m256i test_mm512_mask_cvttspd_epu32(__m256i W, __mmask8 U, __m512d A) {
- // CHECK-LABEL: test_mm512_mask_cvttspd_epu32
+__m256i test_mm512_mask_cvtts_pd_epu32(__m256i W, __mmask8 U, __m512d A) {
+ // CHECK-LABEL: test_mm512_mask_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.512(<8 x double>
- return _mm512_mask_cvttspd_epu32(W, U, A);
+ return _mm512_mask_cvtts_pd_epu32(W, U, A);
}
-__m256i test_mm512_maskz_cvttspd_epu32(__mmask8 U, __m512d A) {
- // CHECK-LABEL: test_mm512_maskz_cvttspd_epu32
+__m256i test_mm512_maskz_cvtts_pd_epu32(__mmask8 U, __m512d A) {
+ // CHECK-LABEL: test_mm512_maskz_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.512(<8 x double>
- return _mm512_maskz_cvttspd_epu32(U, A);
+ return _mm512_maskz_cvtts_pd_epu32(U, A);
}
__m256i test_mm512_cvtts_roundpd_epu32(__m512d A) {
@@ -76,22 +76,22 @@ __m256i test_mm512_maskz_cvtts_roundpd_epu32(__mmask8 U, __m512d A) {
return _mm512_maskz_cvtts_roundpd_epu32(U, A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_cvttsps_epi32(__m512 A) {
- // CHECK-LABEL: test_mm512_cvttsps_epi32
+__m512i test_mm512_cvtts_ps_epi32(__m512 A) {
+ // CHECK-LABEL: test_mm512_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.512(<16 x float>
- return _mm512_cvttsps_epi32(A);
+ return _mm512_cvtts_ps_epi32(A);
}
-__m512i test_mm512_mask_cvttsps_epi32(__m512i W, __mmask8 U, __m512 A) {
- // CHECK-LABEL: test_mm512_mask_cvttsps_epi32
+__m512i test_mm512_mask_cvtts_ps_epi32(__m512i W, __mmask8 U, __m512 A) {
+ // CHECK-LABEL: test_mm512_mask_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.512(<16 x float>
- return _mm512_mask_cvttsps_epi32(W, U, A);
+ return _mm512_mask_cvtts_ps_epi32(W, U, A);
}
-__m512i test_mm512_maskz_cvttsps_epi32(__mmask8 U, __m512 A) {
- // CHECK-LABEL: test_mm512_maskz_cvttsps_epi32
+__m512i test_mm512_maskz_cvtts_ps_epi32(__mmask8 U, __m512 A) {
+ // CHECK-LABEL: test_mm512_maskz_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.512(<16 x float>
- return _mm512_maskz_cvttsps_epi32(U, A);
+ return _mm512_maskz_cvtts_ps_epi32(U, A);
}
__m512i test_mm512_cvtts_roundps_epi32(__m512 A) {
@@ -112,22 +112,22 @@ __m512i test_mm512_maskz_cvtts_roundps_epi32(__mmask8 U, __m512 A) {
return _mm512_maskz_cvtts_roundps_epi32(U, A, _MM_FROUND_NO_EXC);
}
-__m512i test_mm512_cvttsps_epu32(__m512 A) {
- // CHECK-LABEL: test_mm512_cvttsps_epu32
+__m512i test_mm512_cvtts_ps_epu32(__m512 A) {
+ // CHECK-LABEL: test_mm512_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.512(<16 x float>
- return _mm512_cvttsps_epu32(A);
+ return _mm512_cvtts_ps_epu32(A);
}
-__m512i test_mm512_mask_cvttsps_epu32(__m512i W, __mmask8 U, __m512 A) {
- // CHECK-LABEL: test_mm512_mask_cvttsps_epu32
+__m512i test_mm512_mask_cvtts_ps_epu32(__m512i W, __mmask8 U, __m512 A) {
+ // CHECK-LABEL: test_mm512_mask_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.512(<16 x float>
- return _mm512_mask_cvttsps_epu32(W, U, A);
+ return _mm512_mask_cvtts_ps_epu32(W, U, A);
}
-__m512i test_mm512_maskz_cvttsps_epu32(__mmask8 U, __m512 A) {
- // CHECK-LABEL: test_mm512_maskz_cvttsps_epu32
+__m512i test_mm512_maskz_cvtts_ps_epu32(__mmask8 U, __m512 A) {
+ // CHECK-LABEL: test_mm512_maskz_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.512(<16 x float>
- return _mm512_maskz_cvttsps_epu32(U, A);
+ return _mm512_maskz_cvtts_ps_epu32(U, A);
}
__m512i test_mm512_cvtts_roundps_epu32(__m512 A) {
@@ -148,4 +148,4 @@ __m512i test_mm512_maskz_cvtts_roundps_epu32(__mmask8 U, __m512 A) {
}
// X64: {{.*}}
-// X86: {{.*}}
\ No newline at end of file
+// X86: {{.*}}
diff --git a/clang/test/CodeGen/X86/avx10_2convert-builtins.c b/clang/test/CodeGen/X86/avx10_2convert-builtins.c
index 87fc6ffd7bc17..31dd0ecc381ef 100644
--- a/clang/test/CodeGen/X86/avx10_2convert-builtins.c
+++ b/clang/test/CodeGen/X86/avx10_2convert-builtins.c
@@ -41,24 +41,6 @@ __m256h test_mm256_maskz_cvtx2ps_ph(__mmask16 __U, __m256 __A, __m256 __B) {
return _mm256_maskz_cvtx2ps_ph(__U, __A, __B);
}
-__m256h test_mm256_cvtx_round2ps_ph(__m256 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_cvtx_round2ps_ph(
- // CHECK: call <16 x half> @llvm.x86.avx10.mask.vcvt2ps2phx.256(
- return _mm256_cvtx_round2ps_ph(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_cvtx_round2ps_ph(__m256h __W, __mmask8 __U, __m256 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_cvtx_round2ps_ph(
- // CHECK: call <16 x half> @llvm.x86.avx10.mask.vcvt2ps2phx.256(
- return _mm256_mask_cvtx_round2ps_ph(__W, __U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_cvtx_round2ps_ph(__mmask8 __U, __m256 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_cvtx_round2ps_ph(
- // CHECK: call <16 x half> @llvm.x86.avx10.mask.vcvt2ps2phx.256(
- return _mm256_maskz_cvtx_round2ps_ph(__U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
__m128i test_mm_cvtbiasph_bf8(__m128i __A, __m128h __B) {
// CHECK-LABEL: @test_mm_cvtbiasph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8128(
@@ -95,40 +77,40 @@ __m128i test_mm256_maskz_cvtbiasph_bf8(__mmask16 __U, __m256i __A, __m256h __B)
return _mm256_maskz_cvtbiasph_bf8(__U, __A, __B);
}
-__m128i test_mm_cvtbiassph_bf8(__m128i __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_cvtbiassph_bf8(
+__m128i test_mm_cvts_biasph_bf8(__m128i __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_cvts_biasph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s128(
- return _mm_cvtbiassph_bf8(__A, __B);
+ return _mm_cvts_biasph_bf8(__A, __B);
}
-__m128i test_mm_mask_cvtbiassph_bf8(__m128i __W, __mmask8 __U, __m128i __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_mask_cvtbiassph_bf8(
+__m128i test_mm_mask_cvts_biasph_bf8(__m128i __W, __mmask8 __U, __m128i __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_mask_cvts_biasph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s128(
- return _mm_mask_cvtbiassph_bf8(__W, __U, __A, __B);
+ return _mm_mask_cvts_biasph_bf8(__W, __U, __A, __B);
}
-__m128i test_mm_maskz_cvtbiassph_bf8(__mmask8 __U, __m128i __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_cvtbiassph_bf8(
+__m128i test_mm_maskz_cvts_biasph_bf8(__mmask8 __U, __m128i __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_cvts_biasph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s128(
- return _mm_maskz_cvtbiassph_bf8(__U, __A, __B);
+ return _mm_maskz_cvts_biasph_bf8(__U, __A, __B);
}
-__m128i test_mm256_cvtbiassph_bf8(__m256i __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_cvtbiassph_bf8(
+__m128i test_mm256_cvts_biasph_bf8(__m256i __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_cvts_biasph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s256(
- return _mm256_cvtbiassph_bf8(__A, __B);
+ return _mm256_cvts_biasph_bf8(__A, __B);
}
-__m128i test_mm256_mask_cvtbiassph_bf8(__m128i __W, __mmask16 __U, __m256i __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_cvtbiassph_bf8(
+__m128i test_mm256_mask_cvts_biasph_bf8(__m128i __W, __mmask16 __U, __m256i __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_mask_cvts_biasph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s256(
- return _mm256_mask_cvtbiassph_bf8(__W, __U, __A, __B);
+ return _mm256_mask_cvts_biasph_bf8(__W, __U, __A, __B);
}
-__m128i test_mm256_maskz_cvtbiassph_bf8(__mmask16 __U, __m256i __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_cvtbiassph_bf8(
+__m128i test_mm256_maskz_cvts_biasph_bf8(__mmask16 __U, __m256i __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_cvts_biasph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2bf8s256(
- return _mm256_maskz_cvtbiassph_bf8(__U, __A, __B);
+ return _mm256_maskz_cvts_biasph_bf8(__U, __A, __B);
}
__m128i test_mm_cvtbiasph_hf8(__m128i __A, __m128h __B) {
@@ -167,40 +149,40 @@ __m128i test_mm256_maskz_cvtbiasph_hf8(__mmask16 __U, __m256i __A, __m256h __B)
return _mm256_maskz_cvtbiasph_hf8(__U, __A, __B);
}
-__m128i test_mm_cvtbiassph_hf8(__m128i __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_cvtbiassph_hf8(
+__m128i test_mm_cvts_biasph_hf8(__m128i __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_cvts_biasph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s128(
- return _mm_cvtbiassph_hf8(__A, __B);
+ return _mm_cvts_biasph_hf8(__A, __B);
}
-__m128i test_mm_mask_cvtbiassph_hf8(__m128i __W, __mmask8 __U, __m128i __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_mask_cvtbiassph_hf8(
+__m128i test_mm_mask_cvts_biasph_hf8(__m128i __W, __mmask8 __U, __m128i __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_mask_cvts_biasph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s128(
- return _mm_mask_cvtbiassph_hf8(__W, __U, __A, __B);
+ return _mm_mask_cvts_biasph_hf8(__W, __U, __A, __B);
}
-__m128i test_mm_maskz_cvtbiassph_hf8(__mmask8 __U, __m128i __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_cvtbiassph_hf8(
+__m128i test_mm_maskz_cvts_biasph_hf8(__mmask8 __U, __m128i __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_cvts_biasph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s128(
- return _mm_maskz_cvtbiassph_hf8(__U, __A, __B);
+ return _mm_maskz_cvts_biasph_hf8(__U, __A, __B);
}
-__m128i test_mm256_cvtbiassph_hf8(__m256i __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_cvtbiassph_hf8(
+__m128i test_mm256_cvts_biasph_hf8(__m256i __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_cvts_biasph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s256(
- return _mm256_cvtbiassph_hf8(__A, __B);
+ return _mm256_cvts_biasph_hf8(__A, __B);
}
-__m128i test_mm256_mask_cvtbiassph_hf8(__m128i __W, __mmask16 __U, __m256i __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_cvtbiassph_hf8(
+__m128i test_mm256_mask_cvts_biasph_hf8(__m128i __W, __mmask16 __U, __m256i __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_mask_cvts_biasph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s256(
- return _mm256_mask_cvtbiassph_hf8(__W, __U, __A, __B);
+ return _mm256_mask_cvts_biasph_hf8(__W, __U, __A, __B);
}
-__m128i test_mm256_maskz_cvtbiassph_hf8(__mmask16 __U, __m256i __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_cvtbiassph_hf8(
+__m128i test_mm256_maskz_cvts_biasph_hf8(__mmask16 __U, __m256i __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_cvts_biasph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtbiasph2hf8s256(
- return _mm256_maskz_cvtbiassph_hf8(__U, __A, __B);
+ return _mm256_maskz_cvts_biasph_hf8(__U, __A, __B);
}
__m128i test_mm_cvt2ph_bf8(__m128h __A, __m128h __B) {
@@ -247,48 +229,48 @@ __m256i test_mm256_maskz_cvt2ph_bf8(__mmask32 __U, __m256h __A, __m256h __B) {
return _mm256_maskz_cvt2ph_bf8(__U, __A, __B);
}
-__m128i test_mm_cvts2ph_bf8(__m128h __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_cvts2ph_bf8(
+__m128i test_mm_cvts_2ph_bf8(__m128h __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_cvts_2ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.vcvt2ph2bf8s128(
- return _mm_cvts2ph_bf8(__A, __B);
+ return _mm_cvts_2ph_bf8(__A, __B);
}
-__m128i test_mm_mask_cvts2ph_bf8(__m128i __W, __mmask16 __U, __m128h __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_mask_cvts2ph_bf8(
+__m128i test_mm_mask_cvts_2ph_bf8(__m128i __W, __mmask16 __U, __m128h __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_mask_cvts_2ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.vcvt2ph2bf8s128(
// CHECK: select <16 x i1> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}
// CHECK: ret <2 x i64> %{{.*}}
- return _mm_mask_cvts2ph_bf8(__W, __U, __A, __B);
+ return _mm_mask_cvts_2ph_bf8(__W, __U, __A, __B);
}
-__m128i test_mm_maskz_cvts2ph_bf8(__mmask16 __U, __m128h __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_cvts2ph_bf8(
+__m128i test_mm_maskz_cvts_2ph_bf8(__mmask16 __U, __m128h __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_cvts_2ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.vcvt2ph2bf8s128(
// CHECK: zeroinitializer
// CHECK: select <16 x i1> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}
- return _mm_maskz_cvts2ph_bf8(__U, __A, __B);
+ return _mm_maskz_cvts_2ph_bf8(__U, __A, __B);
}
-__m256i test_mm256_cvts2ph_bf8(__m256h __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_cvts2ph_bf8(
+__m256i test_mm256_cvts_2ph_bf8(__m256h __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_cvts_2ph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.vcvt2ph2bf8s256(
- return _mm256_cvts2ph_bf8(__A, __B);
+ return _mm256_cvts_2ph_bf8(__A, __B);
}
-__m256i test_mm256_mask_cvts2ph_bf8(__m256i __W, __mmask32 __U, __m256h __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_cvts2ph_bf8(
+__m256i test_mm256_mask_cvts_2ph_bf8(__m256i __W, __mmask32 __U, __m256h __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_mask_cvts_2ph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.vcvt2ph2bf8s256(
// CHECK: select <32 x i1> %{{.*}}, <32 x i8> %{{.*}}, <32 x i8> %{{.*}}
// CHECK: ret <4 x i64> %{{.*}}
- return _mm256_mask_cvts2ph_bf8(__W, __U, __A, __B);
+ return _mm256_mask_cvts_2ph_bf8(__W, __U, __A, __B);
}
-__m256i test_mm256_maskz_cvts2ph_bf8(__mmask32 __U, __m256h __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_cvts2ph_bf8(
+__m256i test_mm256_maskz_cvts_2ph_bf8(__mmask32 __U, __m256h __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_cvts_2ph_bf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.vcvt2ph2bf8s256(
// CHECK: zeroinitializer
// CHECK: select <32 x i1> %{{.*}}, <32 x i8> %{{.*}}, <32 x i8> %{{.*}}
- return _mm256_maskz_cvts2ph_bf8(__U, __A, __B);
+ return _mm256_maskz_cvts_2ph_bf8(__U, __A, __B);
}
__m128i test_mm_cvt2ph_hf8(__m128h __A, __m128h __B) {
@@ -335,48 +317,48 @@ __m256i test_mm256_maskz_cvt2ph_hf8(__mmask32 __U, __m256h __A, __m256h __B) {
return _mm256_maskz_cvt2ph_hf8(__U, __A, __B);
}
-__m128i test_mm_cvts2ph_hf8(__m128h __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_cvts2ph_hf8(
+__m128i test_mm_cvts_2ph_hf8(__m128h __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_cvts_2ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.vcvt2ph2hf8s128(
- return _mm_cvts2ph_hf8(__A, __B);
+ return _mm_cvts_2ph_hf8(__A, __B);
}
-__m128i test_mm_mask_cvts2ph_hf8(__m128i __W, __mmask16 __U, __m128h __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_mask_cvts2ph_hf8(
+__m128i test_mm_mask_cvts_2ph_hf8(__m128i __W, __mmask16 __U, __m128h __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_mask_cvts_2ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.vcvt2ph2hf8s128(
// CHECK: select <16 x i1> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}
// CHECK: ret <2 x i64> %{{.*}}
- return _mm_mask_cvts2ph_hf8(__W, __U, __A, __B);
+ return _mm_mask_cvts_2ph_hf8(__W, __U, __A, __B);
}
-__m128i test_mm_maskz_cvts2ph_hf8(__mmask16 __U, __m128h __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_cvts2ph_hf8(
+__m128i test_mm_maskz_cvts_2ph_hf8(__mmask16 __U, __m128h __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_cvts_2ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.vcvt2ph2hf8s128(
// CHECK: zeroinitializer
// CHECK: select <16 x i1> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}
- return _mm_maskz_cvts2ph_hf8(__U, __A, __B);
+ return _mm_maskz_cvts_2ph_hf8(__U, __A, __B);
}
-__m256i test_mm256_cvts2ph_hf8(__m256h __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_cvts2ph_hf8(
+__m256i test_mm256_cvts_2ph_hf8(__m256h __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_cvts_2ph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.vcvt2ph2hf8s256(
- return _mm256_cvts2ph_hf8(__A, __B);
+ return _mm256_cvts_2ph_hf8(__A, __B);
}
-__m256i test_mm256_mask_cvts2ph_hf8(__m256i __W, __mmask32 __U, __m256h __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_cvts2ph_hf8(
+__m256i test_mm256_mask_cvts_2ph_hf8(__m256i __W, __mmask32 __U, __m256h __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_mask_cvts_2ph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.vcvt2ph2hf8s256(
// CHECK: select <32 x i1> %{{.*}}, <32 x i8> %{{.*}}, <32 x i8> %{{.*}}
// CHECK: ret <4 x i64> %{{.*}}
- return _mm256_mask_cvts2ph_hf8(__W, __U, __A, __B);
+ return _mm256_mask_cvts_2ph_hf8(__W, __U, __A, __B);
}
-__m256i test_mm256_maskz_cvts2ph_hf8(__mmask32 __U, __m256h __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_cvts2ph_hf8(
+__m256i test_mm256_maskz_cvts_2ph_hf8(__mmask32 __U, __m256h __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_cvts_2ph_hf8(
// CHECK: call <32 x i8> @llvm.x86.avx10.vcvt2ph2hf8s256(
// CHECK: zeroinitializer
// CHECK: select <32 x i1> %{{.*}}, <32 x i8> %{{.*}}, <32 x i8> %{{.*}}
- return _mm256_maskz_cvts2ph_hf8(__U, __A, __B);
+ return _mm256_maskz_cvts_2ph_hf8(__U, __A, __B);
}
__m128h test_mm_cvthf8_ph(__m128i __A) {
@@ -451,40 +433,40 @@ __m128i test_mm256_maskz_cvtph_bf8(__mmask16 __A, __m256h __B) {
return _mm256_maskz_cvtph_bf8(__A, __B);
}
-__m128i test_mm_cvtsph_bf8(__m128h __A) {
- // CHECK-LABEL: @test_mm_cvtsph_bf8(
+__m128i test_mm_cvts_ph_bf8(__m128h __A) {
+ // CHECK-LABEL: @test_mm_cvts_ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s128(
- return _mm_cvtsph_bf8(__A);
+ return _mm_cvts_ph_bf8(__A);
}
-__m128i test_mm_mask_cvtsph_bf8(__m128i __A, __mmask8 __B, __m128h __C) {
- // CHECK-LABEL: @test_mm_mask_cvtsph_bf8(
+__m128i test_mm_mask_cvts_ph_bf8(__m128i __A, __mmask8 __B, __m128h __C) {
+ // CHECK-LABEL: @test_mm_mask_cvts_ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s128(
- return _mm_mask_cvtsph_bf8(__A, __B, __C);
+ return _mm_mask_cvts_ph_bf8(__A, __B, __C);
}
-__m128i test_mm_maskz_cvtsph_bf8(__mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_cvtsph_bf8(
+__m128i test_mm_maskz_cvts_ph_bf8(__mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_cvts_ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s128(
- return _mm_maskz_cvtsph_bf8(__A, __B);
+ return _mm_maskz_cvts_ph_bf8(__A, __B);
}
-__m128i test_mm256_cvtsph_bf8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_cvtsph_bf8(
+__m128i test_mm256_cvts_ph_bf8(__m256h __A) {
+ // CHECK-LABEL: @test_mm256_cvts_ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s256(
- return _mm256_cvtsph_bf8(__A);
+ return _mm256_cvts_ph_bf8(__A);
}
-__m128i test_mm256_mask_cvtsph_bf8(__m128i __A, __mmask16 __B, __m256h __C) {
- // CHECK-LABEL: @test_mm256_mask_cvtsph_bf8(
+__m128i test_mm256_mask_cvts_ph_bf8(__m128i __A, __mmask16 __B, __m256h __C) {
+ // CHECK-LABEL: @test_mm256_mask_cvts_ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s256(
- return _mm256_mask_cvtsph_bf8(__A, __B, __C);
+ return _mm256_mask_cvts_ph_bf8(__A, __B, __C);
}
-__m128i test_mm256_maskz_cvtsph_bf8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_cvtsph_bf8(
+__m128i test_mm256_maskz_cvts_ph_bf8(__mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_cvts_ph_bf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2bf8s256(
- return _mm256_maskz_cvtsph_bf8(__A, __B);
+ return _mm256_maskz_cvts_ph_bf8(__A, __B);
}
__m128i test_mm_cvtph_hf8(__m128h __A) {
@@ -523,40 +505,40 @@ __m128i test_mm256_maskz_cvtph_hf8(__mmask16 __A, __m256h __B) {
return _mm256_maskz_cvtph_hf8(__A, __B);
}
-__m128i test_mm_cvtsph_hf8(__m128h __A) {
- // CHECK-LABEL: @test_mm_cvtsph_hf8(
+__m128i test_mm_cvts_ph_hf8(__m128h __A) {
+ // CHECK-LABEL: @test_mm_cvts_ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s128(
- return _mm_cvtsph_hf8(__A);
+ return _mm_cvts_ph_hf8(__A);
}
-__m128i test_mm_mask_cvtsph_hf8(__m128i __A, __mmask8 __B, __m128h __C) {
- // CHECK-LABEL: @test_mm_mask_cvtsph_hf8(
+__m128i test_mm_mask_cvts_ph_hf8(__m128i __A, __mmask8 __B, __m128h __C) {
+ // CHECK-LABEL: @test_mm_mask_cvts_ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s128(
- return _mm_mask_cvtsph_hf8(__A, __B, __C);
+ return _mm_mask_cvts_ph_hf8(__A, __B, __C);
}
-__m128i test_mm_maskz_cvtsph_hf8(__mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_cvtsph_hf8(
+__m128i test_mm_maskz_cvts_ph_hf8(__mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_cvts_ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s128(
- return _mm_maskz_cvtsph_hf8(__A, __B);
+ return _mm_maskz_cvts_ph_hf8(__A, __B);
}
-__m128i test_mm256_cvtsph_hf8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_cvtsph_hf8(
+__m128i test_mm256_cvts_ph_hf8(__m256h __A) {
+ // CHECK-LABEL: @test_mm256_cvts_ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s256(
- return _mm256_cvtsph_hf8(__A);
+ return _mm256_cvts_ph_hf8(__A);
}
-__m128i test_mm256_mask_cvtsph_hf8(__m128i __A, __mmask16 __B, __m256h __C) {
- // CHECK-LABEL: @test_mm256_mask_cvtsph_hf8(
+__m128i test_mm256_mask_cvts_ph_hf8(__m128i __A, __mmask16 __B, __m256h __C) {
+ // CHECK-LABEL: @test_mm256_mask_cvts_ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s256(
- return _mm256_mask_cvtsph_hf8(__A, __B, __C);
+ return _mm256_mask_cvts_ph_hf8(__A, __B, __C);
}
-__m128i test_mm256_maskz_cvtsph_hf8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_cvtsph_hf8(
+__m128i test_mm256_maskz_cvts_ph_hf8(__mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_cvts_ph_hf8(
// CHECK: call <16 x i8> @llvm.x86.avx10.mask.vcvtph2hf8s256(
- return _mm256_maskz_cvtsph_hf8(__A, __B);
+ return _mm256_maskz_cvts_ph_hf8(__A, __B);
}
__m256h test_mm256_cvtbf8_ph(__m128i A) {
diff --git a/clang/test/CodeGen/X86/avx10_2minmax-builtins.c b/clang/test/CodeGen/X86/avx10_2minmax-builtins.c
index 7e21858c71834..f8238f40c15b5 100644
--- a/clang/test/CodeGen/X86/avx10_2minmax-builtins.c
+++ b/clang/test/CodeGen/X86/avx10_2minmax-builtins.c
@@ -83,24 +83,6 @@ __m256d test_mm256_maskz_minmax_pd(__mmask8 __A, __m256d __B, __m256d __C) {
return _mm256_maskz_minmax_pd(__A, __B, __C, 127);
}
-__m256d test_mm256_minmax_round_pd(__m256d __A, __m256d __B) {
- // CHECK-LABEL: @test_mm256_minmax_round_pd(
- // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
- return _mm256_minmax_round_pd(__A, __B, 127, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_minmax_round_pd(__m256d __A, __mmask8 __B, __m256d __C, __m256d __D) {
- // CHECK-LABEL: @test_mm256_mask_minmax_round_pd(
- // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
- return _mm256_mask_minmax_round_pd(__A, __B, __C, __D, 127, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_minmax_round_pd(__mmask8 __A, __m256d __B, __m256d __C) {
- // CHECK-LABEL: @test_mm256_maskz_minmax_round_pd(
- // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
- return _mm256_maskz_minmax_round_pd(__A, __B, __C, 127, _MM_FROUND_NO_EXC);
-}
-
__m128h test_mm_minmax_ph(__m128h __A, __m128h __B) {
// CHECK-LABEL: @test_mm_minmax_ph(
// CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxph128(
@@ -137,24 +119,6 @@ __m256h test_mm256_maskz_minmax_ph(__mmask16 __A, __m256h __B, __m256h __C) {
return _mm256_maskz_minmax_ph(__A, __B, __C, 127);
}
-__m256h test_mm256_minmax_round_ph(__m256h __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_minmax_round_ph(
- // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
- return _mm256_minmax_round_ph(__A, __B, 127, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_minmax_round_ph(__m256h __A, __mmask16 __B, __m256h __C, __m256h __D) {
- // CHECK-LABEL: @test_mm256_mask_minmax_round_ph(
- // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
- return _mm256_mask_minmax_round_ph(__A, __B, __C, __D, 127, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_minmax_round_ph(__mmask16 __A, __m256h __B, __m256h __C) {
- // CHECK-LABEL: @test_mm256_maskz_minmax_round_ph(
- // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
- return _mm256_maskz_minmax_round_ph(__A, __B, __C, 127, _MM_FROUND_NO_EXC);
-}
-
__m128 test_mm_minmax_ps(__m128 __A, __m128 __B) {
// CHECK-LABEL: @test_mm_minmax_ps(
// CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxps128(
@@ -191,24 +155,6 @@ __m256 test_mm256_maskz_minmax_ps(__mmask8 __A, __m256 __B, __m256 __C) {
return _mm256_maskz_minmax_ps(__A, __B, __C, 127);
}
-__m256 test_mm256_minmax_round_ps(__m256 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_minmax_round_ps(
- // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
- return _mm256_minmax_round_ps(__A, __B, 127, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_minmax_round_ps(__m256 __A, __mmask8 __B, __m256 __C, __m256 __D) {
- // CHECK-LABEL: @test_mm256_mask_minmax_round_ps(
- // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
- return _mm256_mask_minmax_round_ps(__A, __B, __C, __D, 127, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_minmax_round_ps(__mmask8 __A, __m256 __B, __m256 __C) {
- // CHECK-LABEL: @test_mm256_maskz_minmax_round_ps(
- // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
- return _mm256_maskz_minmax_round_ps(__A, __B, __C, 127, _MM_FROUND_NO_EXC);
-}
-
__m128d test_mm_minmax_sd(__m128d __A, __m128d __B) {
// CHECK-LABEL: @test_mm_minmax_sd(
// CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxsd.round(
diff --git a/clang/test/CodeGen/X86/avx10_2ni-builtins.c b/clang/test/CodeGen/X86/avx10_2ni-builtins.c
index d06a008c09e71..936be27da61d7 100644
--- a/clang/test/CodeGen/X86/avx10_2ni-builtins.c
+++ b/clang/test/CodeGen/X86/avx10_2ni-builtins.c
@@ -424,2408 +424,3 @@ __m256i test_mm256_maskz_dpwuuds_epi32(__m256i __A, __mmask8 __B, __m256i __C, _
// CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}}
return _mm256_maskz_dpwuuds_epi32(__A, __B, __C, __D);
}
-
-// YMM Rounding
-__m256d test_mm256_add_round_pd(__m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_add_round_pd
-// CHECK: @llvm.x86.avx10.vaddpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 11)
- return _mm256_add_round_pd(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_add_round_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mask_add_round_pd
-// CHECK: @llvm.x86.avx10.vaddpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 10)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_add_round_pd(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_add_round_pd(__mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_maskz_add_round_pd
-// CHECK: @llvm.x86.avx10.vaddpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 9)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_maskz_add_round_pd(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_add_round_ph(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_add_round_ph
-// CHECK: @llvm.x86.avx10.vaddph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 11)
- return _mm256_add_round_ph(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_add_round_ph(__m256h __W, __mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_add_round_ph
-// CHECK: @llvm.x86.avx10.vaddph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 10)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_add_round_ph(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_add_round_ph(__mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_add_round_ph
-// CHECK: @llvm.x86.avx10.vaddph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 9)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_maskz_add_round_ph(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_add_round_ps(__m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_add_round_ps
-// CHECK: @llvm.x86.avx10.vaddps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 11)
- return _mm256_add_round_ps(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_add_round_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mask_add_round_ps
-// CHECK: @llvm.x86.avx10.vaddps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 10)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_add_round_ps(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_add_round_ps(__mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_maskz_add_round_ps
-// CHECK: @llvm.x86.avx10.vaddps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 9)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_maskz_add_round_ps(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__mmask8 test_mm256_cmp_round_pd_mask(__m256d a, __m256d b) {
-// CHECK-LABEL: @test_mm256_cmp_round_pd_mask
-// CHECK: fcmp oeq <4 x double> %{{.*}}, %{{.*}}
- return _mm256_cmp_round_pd_mask(a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC);
-}
-
-__mmask8 test_mm256_mask_cmp_round_pd_mask(__mmask8 m, __m256d a, __m256d b) {
-// CHECK-LABEL: @test_mm256_mask_cmp_round_pd_mask
-// CHECK: [[CMP:%.*]] = fcmp oeq <4 x double> %{{.*}}, %{{.*}}
-// CHECK: and <4 x i1> [[CMP]], {{.*}}
- return _mm256_mask_cmp_round_pd_mask(m, a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC);
-}
-
-__mmask16 test_mm256_cmp_round_ph_mask(__m256h a, __m256h b) {
-// CHECK-LABEL: @test_mm256_cmp_round_ph_mask
-// CHECK: fcmp oeq <16 x half> %{{.*}}, %{{.*}}
- return _mm256_cmp_round_ph_mask(a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC);
-}
-
-__mmask16 test_mm256_mask_cmp_round_ph_mask(__mmask16 m, __m256h a, __m256h b) {
-// CHECK-LABEL: @test_mm256_mask_cmp_round_ph_mask
-// CHECK: [[CMP:%.*]] = fcmp oeq <16 x half> %{{.*}}, %{{.*}}
-// CHECK: and <16 x i1> [[CMP]], {{.*}}
- return _mm256_mask_cmp_round_ph_mask(m, a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC);
-}
-
-__mmask8 test_mm256_cmp_round_ps_mask(__m256 a, __m256 b) {
-// CHECK-LABEL: @test_mm256_cmp_round_ps_mask
-// CHECK: fcmp oeq <8 x float> %{{.*}}, %{{.*}}
- return _mm256_cmp_round_ps_mask(a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC);
-}
-
-__mmask8 test_mm256_mask_cmp_round_ps_mask(__mmask8 m, __m256 a, __m256 b) {
-// CHECK-LABEL: @test_mm256_mask_cmp_round_ps_mask
-// CHECK: [[CMP:%.*]] = fcmp oeq <8 x float> %{{.*}}, %{{.*}}
-// CHECK: and <8 x i1> [[CMP]], {{.*}}
- return _mm256_mask_cmp_round_ps_mask(m, a, b, _CMP_EQ_OQ, _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_cvt_roundepi32_ph(__m256i A) {
-// CHECK-LABEL: test_mm256_cvt_roundepi32_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f16.v8i32(<8 x i32> %{{.*}}, i32 11)
- return _mm256_cvt_roundepi32_ph(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_mask_cvt_roundepi32_ph(__m128h A, __mmask8 B, __m256i C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundepi32_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f16.v8i32(<8 x i32> %{{.*}}, i32 10)
-// CHECK: select <8 x i1> %{{.*}}, <8 x half> %{{.*}}, <8 x half> %{{.*}}
- return _mm256_mask_cvt_roundepi32_ph(A, B, C, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_maskz_cvt_roundepi32_ph(__mmask8 A, __m256i B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundepi32_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f16.v8i32(<8 x i32> %{{.*}}, i32 9)
-// CHECK: select <8 x i1> %{{.*}}, <8 x half> %{{.*}}, <8 x half> %{{.*}}
- return _mm256_maskz_cvt_roundepi32_ph(A, B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_cvt_roundepi32_ps(__m256i __A)
-{
-// CHECK-LABEL: @test_mm256_cvt_roundepi32_ps
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f32.v8i32
- return _mm256_cvt_roundepi32_ps(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_cvt_roundepi32_ps(__m256 __W, __mmask8 __U, __m256i __A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvt_roundepi32_ps
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f32.v8i32
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_cvt_roundepi32_ps(__W, __U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_cvt_roundepi32_ps(__mmask8 __U, __m256i __A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundepi32_ps
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f32.v8i32
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_maskz_cvt_roundepi32_ps(__U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_cvt_roundpd_epi32(__m256d A)
-{
-// CHECK-LABEL: @test_mm256_cvt_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2dq256
- return _mm256_cvt_roundpd_epi32(A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_mask_cvt_roundpd_epi32(__m128i W,__mmask8 U,__m256d A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvt_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2dq256
- return _mm256_mask_cvt_roundpd_epi32(W, U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_maskz_cvt_roundpd_epi32(__mmask8 U, __m256d A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2dq256
- return _mm256_maskz_cvt_roundpd_epi32(U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_cvt_roundpd_ph(__m256d A) {
-// CHECK-LABEL: test_mm256_cvt_roundpd_ph
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2ph256
- return _mm256_cvt_roundpd_ph(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_mask_cvt_roundpd_ph(__m128h A, __mmask8 B, __m256d C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundpd_ph
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2ph256
- return _mm256_mask_cvt_roundpd_ph(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_maskz_cvt_roundpd_ph(__mmask8 A, __m256d B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundpd_ph
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2ph256
- return _mm256_maskz_cvt_roundpd_ph(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_cvt_roundpd_ps(__m256d A)
-{
-// CHECK-LABEL: @test_mm256_cvt_roundpd_ps
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2ps256
- return _mm256_cvt_roundpd_ps(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_mask_cvt_roundpd_ps(__m128 W, __mmask8 U,__m256d A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvt_roundpd_ps
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2ps256
- return _mm256_mask_cvt_roundpd_ps(W, U, A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_maskz_cvt_roundpd_ps(__mmask8 U, __m256d A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundpd_ps
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2ps256
- return _mm256_maskz_cvt_roundpd_ps(U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundpd_epi64(__m256d __A) {
-// CHECK-LABEL: @test_mm256_cvt_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2qq256
- return _mm256_cvt_roundpd_epi64(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundpd_epi64(__m256i __W, __mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_mask_cvt_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2qq256
- return _mm256_mask_cvt_roundpd_epi64(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundpd_epi64(__mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2qq256
- return _mm256_maskz_cvt_roundpd_epi64(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_cvt_roundpd_epu32(__m256d A)
-{
-// CHECK-LABEL: @test_mm256_cvt_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2udq256
- return _mm256_cvt_roundpd_epu32(A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_mask_cvt_roundpd_epu32(__m128i W,__mmask8 U,__m256d A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvt_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2udq256
- return _mm256_mask_cvt_roundpd_epu32(W, U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_maskz_cvt_roundpd_epu32(__mmask8 U, __m256d A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2udq256
- return _mm256_maskz_cvt_roundpd_epu32(U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundpd_epu64(__m256d __A) {
-// CHECK-LABEL: @test_mm256_cvt_roundpd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2uqq256
- return _mm256_cvt_roundpd_epu64(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundpd_epu64(__m256i __W, __mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_mask_cvt_roundpd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2uqq256
- return _mm256_mask_cvt_roundpd_epu64(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundpd_epu64(__mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundpd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtpd2uqq256
- return _mm256_maskz_cvt_roundpd_epu64(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundph_epi32(__m128h A) {
-// CHECK-LABEL: test_mm256_cvt_roundph_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtph2dq256
- return _mm256_cvt_roundph_epi32(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundph_epi32(__m256i A, __mmask16 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundph_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtph2dq256
- return _mm256_mask_cvt_roundph_epi32(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundph_epi32(__mmask16 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundph_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtph2dq256
- return _mm256_maskz_cvt_roundph_epi32(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_cvt_roundph_pd(__m128h A) {
-// CHECK-LABEL: test_mm256_cvt_roundph_pd
-// CHECK: @llvm.x86.avx10.mask.vcvtph2pd256
- return _mm256_cvt_roundph_pd(A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_cvt_roundph_pd(__m256d A, __mmask8 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundph_pd
-// CHECK: @llvm.x86.avx10.mask.vcvtph2pd256
- return _mm256_mask_cvt_roundph_pd(A, B, C, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_cvt_roundph_pd(__mmask8 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundph_pd
-// CHECK: @llvm.x86.avx10.mask.vcvtph2pd256
- return _mm256_maskz_cvt_roundph_pd(A, B, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_cvtx_roundph_ps(__m128h A) {
-// CHECK-LABEL: test_mm256_cvtx_roundph_ps
-// CHECK: @llvm.x86.avx10.mask.vcvtph2psx256
- return _mm256_cvtx_roundph_ps(A, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_cvtx_roundph_ps(__m256 A, __mmask16 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvtx_roundph_ps
-// CHECK: @llvm.x86.avx10.mask.vcvtph2psx256
- return _mm256_mask_cvtx_roundph_ps(A, B, C, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_cvtx_roundph_ps(__mmask16 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvtx_roundph_ps
-// CHECK: @llvm.x86.avx10.mask.vcvtph2psx256
- return _mm256_maskz_cvtx_roundph_ps(A, B, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundph_epi64(__m128h A) {
-// CHECK-LABEL: test_mm256_cvt_roundph_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtph2qq256
- return _mm256_cvt_roundph_epi64(A, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundph_epi64(__m256i A, __mmask8 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundph_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtph2qq256
- return _mm256_mask_cvt_roundph_epi64(A, B, C, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundph_epi64(__mmask8 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundph_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtph2qq256
- return _mm256_maskz_cvt_roundph_epi64(A, B, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundph_epu32(__m128h A) {
-// CHECK-LABEL: test_mm256_cvt_roundph_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtph2udq256
- return _mm256_cvt_roundph_epu32(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundph_epu32(__m256i A, __mmask16 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundph_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtph2udq256
- return _mm256_mask_cvt_roundph_epu32(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundph_epu32(__mmask16 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundph_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtph2udq256
- return _mm256_maskz_cvt_roundph_epu32(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundph_epu64(__m128h A) {
-// CHECK-LABEL: test_mm256_cvt_roundph_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtph2uqq256
- return _mm256_cvt_roundph_epu64(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundph_epu64(__m256i A, __mmask8 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundph_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtph2uqq256
- return _mm256_mask_cvt_roundph_epu64(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundph_epu64(__mmask8 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundph_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtph2uqq256
- return _mm256_maskz_cvt_roundph_epu64(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundph_epu16(__m256h A) {
-// CHECK-LABEL: test_mm256_cvt_roundph_epu16
-// CHECK: @llvm.x86.avx10.mask.vcvtph2uw256
- return _mm256_cvt_roundph_epu16(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundph_epu16(__m256i A, __mmask32 B, __m256h C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundph_epu16
-// CHECK: @llvm.x86.avx10.mask.vcvtph2uw256
- return _mm256_mask_cvt_roundph_epu16(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundph_epu16(__mmask32 A, __m256h B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundph_epu16
-// CHECK: @llvm.x86.avx10.mask.vcvtph2uw256
- return _mm256_maskz_cvt_roundph_epu16(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundph_epi16(__m256h A) {
-// CHECK-LABEL: test_mm256_cvt_roundph_epi16
-// CHECK: @llvm.x86.avx10.mask.vcvtph2w256
- return _mm256_cvt_roundph_epi16(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundph_epi16(__m256i A, __mmask32 B, __m256h C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundph_epi16
-// CHECK: @llvm.x86.avx10.mask.vcvtph2w256
- return _mm256_mask_cvt_roundph_epi16(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundph_epi16(__mmask32 A, __m256h B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundph_epi16
-// CHECK: @llvm.x86.avx10.mask.vcvtph2w256
- return _mm256_maskz_cvt_roundph_epi16(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundps_epi32(__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_cvt_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtps2dq256
- return _mm256_cvt_roundps_epi32(__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundps_epi32(__m256i __W,__mmask16 __U,__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvt_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtps2dq256
- return _mm256_mask_cvt_roundps_epi32(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundps_epi32(__mmask16 __U, __m256 __A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvtps2dq256
- return _mm256_maskz_cvt_roundps_epi32(__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_cvt_roundps_pd(__m128 __A) {
-// CHECK-LABEL: @test_mm256_cvt_roundps_pd
-// CHECK: @llvm.x86.avx10.mask.vcvtps2pd256
- return _mm256_cvt_roundps_pd(__A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_cvt_roundps_pd(__m256d __W, __mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_mask_cvt_roundps_pd
-// CHECK: @llvm.x86.avx10.mask.vcvtps2pd256
- return _mm256_mask_cvt_roundps_pd(__W, __U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_cvt_roundps_pd(__mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundps_pd
-// CHECK: @llvm.x86.avx10.mask.vcvtps2pd256
- return _mm256_maskz_cvt_roundps_pd(__U, __A, _MM_FROUND_NO_EXC);
-}
-
-// FIXME: We may change to @llvm.x86.avx10.mask.vcvtps2ph256 in future.
-__m128i test_mm256_cvt_roundps_ph(__m256 __A)
-{
- // CHECK-LABEL: @test_mm256_cvt_roundps_ph
- // CHECK: @llvm.x86.avx512.mask.vcvtps2ph.256
- return _mm256_cvt_roundps_ph(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_mask_cvt_roundps_ph(__m128i __W , __mmask16 __U, __m256 __A)
-{
- // CHECK-LABEL: @test_mm256_mask_cvt_roundps_ph
- // CHECK: @llvm.x86.avx512.mask.vcvtps2ph.256
- return _mm256_mask_cvt_roundps_ph(__W, __U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_maskz_cvt_roundps_ph(__mmask16 __U, __m256 __A)
-{
- // CHECK-LABEL: @test_mm256_maskz_cvt_roundps_ph
- // CHECK: @llvm.x86.avx512.mask.vcvtps2ph.256
- return _mm256_maskz_cvt_roundps_ph(__U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_cvtx_roundps_ph(__m256 A) {
-// CHECK-LABEL: test_mm256_cvtx_roundps_ph
-// CHECK: @llvm.x86.avx10.mask.vcvtps2phx256
- return _mm256_cvtx_roundps_ph(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_mask_cvtx_roundps_ph(__m128h A, __mmask16 B, __m256 C) {
-// CHECK-LABEL: test_mm256_mask_cvtx_roundps_ph
-// CHECK: @llvm.x86.avx10.mask.vcvtps2phx256
- return _mm256_mask_cvtx_roundps_ph(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_maskz_cvtx_roundps_ph(__mmask16 A, __m256 B) {
-// CHECK-LABEL: test_mm256_maskz_cvtx_roundps_ph
-// CHECK: @llvm.x86.avx10.mask.vcvtps2phx256
- return _mm256_maskz_cvtx_roundps_ph(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundps_epi64(__m128 __A) {
-// CHECK-LABEL: @test_mm256_cvt_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtps2qq256
- return _mm256_cvt_roundps_epi64(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundps_epi64(__m256i __W, __mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_mask_cvt_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtps2qq256
- return _mm256_mask_cvt_roundps_epi64(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundps_epi64(__mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvtps2qq256
- return _mm256_maskz_cvt_roundps_epi64(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundps_epu32(__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_cvt_roundps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtps2udq256
- return _mm256_cvt_roundps_epu32(__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundps_epu32(__m256i __W,__mmask16 __U,__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvt_roundps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtps2udq256
- return _mm256_mask_cvt_roundps_epu32(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundps_epu32(__mmask16 __U,__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvtps2udq256
- return _mm256_maskz_cvt_roundps_epu32(__U,__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvt_roundps_epu64(__m128 __A) {
-// CHECK-LABEL: @test_mm256_cvt_roundps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtps2uqq256
- return _mm256_cvt_roundps_epu64(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvt_roundps_epu64(__m256i __W, __mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_mask_cvt_roundps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtps2uqq256
- return _mm256_mask_cvt_roundps_epu64(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvt_roundps_epu64(__mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvtps2uqq256
- return _mm256_maskz_cvt_roundps_epu64(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256d test__mm256_cvt_roundepi64_pd(__m256i __A) {
-// CHECK-LABEL: @test__mm256_cvt_roundepi64_pd
-// CHECK: @llvm.x86.avx512.sitofp.round.v4f64.v4i64
- return _mm256_cvt_roundepi64_pd(__A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test__mm256_mask_cvt_roundepi64_pd(__m256d __W, __mmask8 __U, __m256i __A) {
-// CHECK-LABEL: @test__mm256_mask_cvt_roundepi64_pd
-// CHECK: @llvm.x86.avx512.sitofp.round.v4f64.v4i64
- return _mm256_mask_cvt_roundepi64_pd(__W, __U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test__mm256_maskz_cvt_roundepi64_pd(__mmask8 __U, __m256i __A) {
-// CHECK-LABEL: @test__mm256_maskz_cvt_roundepi64_pd
-// CHECK: @llvm.x86.avx512.sitofp.round.v4f64.v4i64
- return _mm256_maskz_cvt_roundepi64_pd(__U, __A, _MM_FROUND_NO_EXC);
-}
-
-// FIXME: We may change to @llvm.x86.avx10.mask.vcvtqq2ph256 in future.
-__m128h test_mm256_cvt_roundepi64_ph(__m256i A) {
-// CHECK-LABEL: test_mm256_cvt_roundepi64_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f16.v4i64
- return _mm256_cvt_roundepi64_ph(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_mask_cvt_roundepi64_ph(__m128h A, __mmask8 B, __m256i C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundepi64_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f16.v4i64
- return _mm256_mask_cvt_roundepi64_ph(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_maskz_cvt_roundepi64_ph(__mmask8 A, __m256i B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundepi64_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v8f16.v4i64
- return _mm256_maskz_cvt_roundepi64_ph(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_cvt_roundepi64_ps(__m256i __A) {
-// CHECK-LABEL: @test_mm256_cvt_roundepi64_ps
-// CHECK: @llvm.x86.avx512.sitofp.round.v4f32.v4i64
- return _mm256_cvt_roundepi64_ps(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_mask_cvt_roundepi64_ps(__m128 __W, __mmask8 __U, __m256i __A) {
-// CHECK-LABEL: @test_mm256_mask_cvt_roundepi64_ps
-// CHECK: @llvm.x86.avx512.sitofp.round.v4f32.v4i64
-// CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}}
- return _mm256_mask_cvt_roundepi64_ps(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_maskz_cvt_roundepi64_ps(__mmask8 __U, __m256i __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundepi64_ps
-// CHECK: @llvm.x86.avx512.sitofp.round.v4f32.v4i64
-// CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}}
- return _mm256_maskz_cvt_roundepi64_ps(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_cvtt_roundpd_epi32(__m256d A)
-{
-// CHECK-LABEL: @test_mm256_cvtt_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2dq256
- return _mm256_cvtt_roundpd_epi32(A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_mask_cvtt_roundpd_epi32(__m128i W,__mmask8 U,__m256d A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvtt_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2dq256
- return _mm256_mask_cvtt_roundpd_epi32(W, U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_maskz_cvtt_roundpd_epi32(__mmask8 U, __m256d A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvtt_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2dq256
- return _mm256_maskz_cvtt_roundpd_epi32(U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundpd_epi64(__m256d __A) {
-// CHECK-LABEL: @test_mm256_cvtt_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2qq256
- return _mm256_cvtt_roundpd_epi64(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundpd_epi64(__m256i __W, __mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_mask_cvtt_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2qq256
- return _mm256_mask_cvtt_roundpd_epi64(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundpd_epi64(__mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvtt_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2qq256
- return _mm256_maskz_cvtt_roundpd_epi64(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_cvtt_roundpd_epu32(__m256d A)
-{
-// CHECK-LABEL: @test_mm256_cvtt_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2udq256
- return _mm256_cvtt_roundpd_epu32(A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_mask_cvtt_roundpd_epu32(__m128i W,__mmask8 U,__m256d A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvtt_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2udq256
- return _mm256_mask_cvtt_roundpd_epu32(W, U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm256_maskz_cvtt_roundpd_epu32(__mmask8 U, __m256d A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvtt_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2udq256
- return _mm256_maskz_cvtt_roundpd_epu32(U, A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundpd_epu64(__m256d __A) {
-// CHECK-LABEL: @test_mm256_cvtt_roundpd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqq256
- return _mm256_cvtt_roundpd_epu64(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundpd_epu64(__m256i __W, __mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_mask_cvtt_roundpd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqq256
- return _mm256_mask_cvtt_roundpd_epu64(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundpd_epu64(__mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvtt_roundpd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqq256
- return _mm256_maskz_cvtt_roundpd_epu64(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundph_epi32(__m128h A) {
-// CHECK-LABEL: test_mm256_cvtt_roundph_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttph2dq256
- return _mm256_cvtt_roundph_epi32(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundph_epi32(__m256i A, __mmask16 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvtt_roundph_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttph2dq256
- return _mm256_mask_cvtt_roundph_epi32(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundph_epi32(__mmask16 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvtt_roundph_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttph2dq256
- return _mm256_maskz_cvtt_roundph_epi32(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundph_epi64(__m128h A) {
-// CHECK-LABEL: test_mm256_cvtt_roundph_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttph2qq256
- return _mm256_cvtt_roundph_epi64(A, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundph_epi64(__m256i A, __mmask8 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvtt_roundph_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttph2qq256
- return _mm256_mask_cvtt_roundph_epi64(A, B, C, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundph_epi64(__mmask8 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvtt_roundph_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttph2qq256
- return _mm256_maskz_cvtt_roundph_epi64(A, B, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundph_epu32(__m128h A) {
-// CHECK-LABEL: test_mm256_cvtt_roundph_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttph2udq256
- return _mm256_cvtt_roundph_epu32(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundph_epu32(__m256i A, __mmask16 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvtt_roundph_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttph2udq256
- return _mm256_mask_cvtt_roundph_epu32(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundph_epu32(__mmask16 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvtt_roundph_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttph2udq256
- return _mm256_maskz_cvtt_roundph_epu32(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundph_epu64(__m128h A) {
-// CHECK-LABEL: test_mm256_cvtt_roundph_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttph2uqq256
- return _mm256_cvtt_roundph_epu64(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundph_epu64(__m256i A, __mmask8 B, __m128h C) {
-// CHECK-LABEL: test_mm256_mask_cvtt_roundph_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttph2uqq256
- return _mm256_mask_cvtt_roundph_epu64(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundph_epu64(__mmask8 A, __m128h B) {
-// CHECK-LABEL: test_mm256_maskz_cvtt_roundph_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttph2uqq256
- return _mm256_maskz_cvtt_roundph_epu64(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundph_epu16(__m256h A) {
-// CHECK-LABEL: test_mm256_cvtt_roundph_epu16
-// CHECK: @llvm.x86.avx10.mask.vcvttph2uw256
- return _mm256_cvtt_roundph_epu16(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundph_epu16(__m256i A, __mmask32 B, __m256h C) {
-// CHECK-LABEL: test_mm256_mask_cvtt_roundph_epu16
-// CHECK: @llvm.x86.avx10.mask.vcvttph2uw256
- return _mm256_mask_cvtt_roundph_epu16(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundph_epu16(__mmask32 A, __m256h B) {
-// CHECK-LABEL: test_mm256_maskz_cvtt_roundph_epu16
-// CHECK: @llvm.x86.avx10.mask.vcvttph2uw256
- return _mm256_maskz_cvtt_roundph_epu16(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundph_epi16(__m256h A) {
-// CHECK-LABEL: test_mm256_cvtt_roundph_epi16
-// CHECK: @llvm.x86.avx10.mask.vcvttph2w256
- return _mm256_cvtt_roundph_epi16(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundph_epi16(__m256i A, __mmask32 B, __m256h C) {
-// CHECK-LABEL: test_mm256_mask_cvtt_roundph_epi16
-// CHECK: @llvm.x86.avx10.mask.vcvttph2w256
- return _mm256_mask_cvtt_roundph_epi16(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundph_epi16(__mmask32 A, __m256h B) {
-// CHECK-LABEL: test_mm256_maskz_cvtt_roundph_epi16
-// CHECK: @llvm.x86.avx10.mask.vcvttph2w256
- return _mm256_maskz_cvtt_roundph_epi16(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundps_epi32(__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_cvtt_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2dq256
- return _mm256_cvtt_roundps_epi32(__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundps_epi32(__m256i __W,__mmask16 __U,__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvtt_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2dq256
- return _mm256_mask_cvtt_roundps_epi32(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundps_epi32(__mmask16 __U, __m256 __A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvtt_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2dq256
- return _mm256_maskz_cvtt_roundps_epi32(__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundps_epi64(__m128 __A) {
-// CHECK-LABEL: @test_mm256_cvtt_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2qq256
- return _mm256_cvtt_roundps_epi64(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundps_epi64(__m256i __W, __mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_mask_cvtt_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2qq256
- return _mm256_mask_cvtt_roundps_epi64(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundps_epi64(__mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvtt_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2qq256
- return _mm256_maskz_cvtt_roundps_epi64(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundps_epu32(__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_cvtt_roundps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2udq256
- return _mm256_cvtt_roundps_epu32(__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundps_epu32(__m256i __W,__mmask16 __U,__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvtt_roundps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2udq256
- return _mm256_mask_cvtt_roundps_epu32(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundps_epu32(__mmask16 __U,__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvtt_roundps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2udq256
- return _mm256_maskz_cvtt_roundps_epu32(__U,__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_cvtt_roundps_epu64(__m128 __A) {
-// CHECK-LABEL: @test_mm256_cvtt_roundps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2uqq256
- return _mm256_cvtt_roundps_epu64(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_cvtt_roundps_epu64(__m256i __W, __mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_mask_cvtt_roundps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2uqq256
- return _mm256_mask_cvtt_roundps_epu64(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_cvtt_roundps_epu64(__mmask8 __U, __m128 __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvtt_roundps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2uqq256
- return _mm256_maskz_cvtt_roundps_epu64(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_cvt_roundepu32_ph(__m256i A) {
-// CHECK-LABEL: test_mm256_cvt_roundepu32_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f16.v8i32(<8 x i32> %{{.*}}, i32 11)
- return _mm256_cvt_roundepu32_ph(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_mask_cvt_roundepu32_ph(__m128h A, __mmask8 B, __m256i C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundepu32_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f16.v8i32(<8 x i32> %{{.*}}, i32 10)
-// CHECK: select <8 x i1> %{{.*}}, <8 x half> %{{.*}}, <8 x half> %{{.*}}
- return _mm256_mask_cvt_roundepu32_ph(A, B, C, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_maskz_cvt_roundepu32_ph(__mmask8 A, __m256i B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundepu32_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f16.v8i32(<8 x i32> %{{.*}}, i32 9)
-// CHECK: select <8 x i1> %{{.*}}, <8 x half> %{{.*}}, <8 x half> %{{.*}}
- return _mm256_maskz_cvt_roundepu32_ph(A, B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_cvt_roundepu32_ps(__m256i __A)
-{
-// CHECK-LABEL: @test_mm256_cvt_roundepu32_ps
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f32.v8i32
- return _mm256_cvt_roundepu32_ps(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_cvt_roundepu32_ps(__m256 __W, __mmask8 __U, __m256i __A)
-{
-// CHECK-LABEL: @test_mm256_mask_cvt_roundepu32_ps
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f32.v8i32
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_cvt_roundepu32_ps(__W, __U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_cvt_roundepu32_ps(__mmask8 __U, __m256i __A)
-{
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundepu32_ps
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f32.v8i32
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_maskz_cvt_roundepu32_ps(__U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test__mm256_cvt_roundepu64_pd(__m256i __A) {
-// CHECK-LABEL: @test__mm256_cvt_roundepu64_pd
-// CHECK: @llvm.x86.avx512.uitofp.round.v4f64.v4i64
- return _mm256_cvt_roundepu64_pd(__A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test__mm256_mask_cvt_roundepu64_pd(__m256d __W, __mmask8 __U, __m256i __A) {
-// CHECK-LABEL: @test__mm256_mask_cvt_roundepu64_pd
-// CHECK: @llvm.x86.avx512.uitofp.round.v4f64.v4i64
- return _mm256_mask_cvt_roundepu64_pd(__W, __U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test__mm256_maskz_cvt_roundepu64_pd(__mmask8 __U, __m256i __A) {
-// CHECK-LABEL: @test__mm256_maskz_cvt_roundepu64_pd
-// CHECK: @llvm.x86.avx512.uitofp.round.v4f64.v4i64
- return _mm256_maskz_cvt_roundepu64_pd(__U, __A, _MM_FROUND_NO_EXC);
-}
-
-// FIXME: We may change to @llvm.x86.avx10.mask.vcvtuqq2ph256 in future.
-__m128h test_mm256_cvt_roundepu64_ph(__m256i A) {
-// CHECK-LABEL: test_mm256_cvt_roundepu64_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f16.v4i64
- return _mm256_cvt_roundepu64_ph(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_mask_cvt_roundepu64_ph(__m128h A, __mmask8 B, __m256i C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundepu64_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f16.v4i64
- return _mm256_mask_cvt_roundepu64_ph(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128h test_mm256_maskz_cvt_roundepu64_ph(__mmask8 A, __m256i B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundepu64_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v8f16.v4i64
- return _mm256_maskz_cvt_roundepu64_ph(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_cvt_roundepu64_ps(__m256i __A) {
-// CHECK-LABEL: @test_mm256_cvt_roundepu64_ps
-// CHECK: @llvm.x86.avx512.uitofp.round.v4f32.v4i64
- return _mm256_cvt_roundepu64_ps(__A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_mask_cvt_roundepu64_ps(__m128 __W, __mmask8 __U, __m256i __A) {
-// CHECK-LABEL: @test_mm256_mask_cvt_roundepu64_ps
-// CHECK: @llvm.x86.avx512.uitofp.round.v4f32.v4i64
-// CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}}
- return _mm256_mask_cvt_roundepu64_ps(__W, __U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m128 test_mm256_maskz_cvt_roundepu64_ps(__mmask8 __U, __m256i __A) {
-// CHECK-LABEL: @test_mm256_maskz_cvt_roundepu64_ps
-// CHECK: @llvm.x86.avx512.uitofp.round.v4f32.v4i64
-// CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}}
- return _mm256_maskz_cvt_roundepu64_ps(__U, __A, _MM_FROUND_TO_NEAREST_INT | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_cvt_roundepi16_ph(__m256i A) {
-// CHECK-LABEL: test_mm256_cvt_roundepi16_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v16f16.v16i16
- return _mm256_cvt_roundepi16_ph(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_cvt_roundepi16_ph(__m256h A, __mmask16 B, __m256i C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundepi16_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v16f16.v16i16
- return _mm256_mask_cvt_roundepi16_ph(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_cvt_roundepi16_ph(__mmask16 A, __m256i B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundepi16_ph
-// CHECK: @llvm.x86.avx512.sitofp.round.v16f16.v16i16
- return _mm256_maskz_cvt_roundepi16_ph(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_cvt_roundepu16_ph(__m256i A) {
-// CHECK-LABEL: test_mm256_cvt_roundepu16_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v16f16.v16i16
- return _mm256_cvt_roundepu16_ph(A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_cvt_roundepu16_ph(__m256h A, __mmask16 B, __m256i C) {
-// CHECK-LABEL: test_mm256_mask_cvt_roundepu16_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v16f16.v16i16
- return _mm256_mask_cvt_roundepu16_ph(A, B, C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_cvt_roundepu16_ph(__mmask16 A, __m256i B) {
-// CHECK-LABEL: test_mm256_maskz_cvt_roundepu16_ph
-// CHECK: @llvm.x86.avx512.uitofp.round.v16f16.v16i16
- return _mm256_maskz_cvt_roundepu16_ph(A, B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_div_round_pd(__m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_div_round_pd
-// CHECK: @llvm.x86.avx10.vdivpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 11)
- return _mm256_div_round_pd(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_div_round_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mask_div_round_pd
-// CHECK: @llvm.x86.avx10.vdivpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 10)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_div_round_pd(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_div_round_pd(__mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_maskz_div_round_pd
-// CHECK: @llvm.x86.avx10.vdivpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 9)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_maskz_div_round_pd(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_div_round_ph(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_div_round_ph
-// CHECK: @llvm.x86.avx10.vdivph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 11)
- return _mm256_div_round_ph(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_div_round_ph(__m256h __W, __mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_div_round_ph
-// CHECK: @llvm.x86.avx10.vdivph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 10)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_div_round_ph(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_div_round_ph(__mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_div_round_ph
-// CHECK: @llvm.x86.avx10.vdivph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 9)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_maskz_div_round_ph(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_div_round_ps(__m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_div_round_ps
-// CHECK: @llvm.x86.avx10.vdivps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 11)
- return _mm256_div_round_ps(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_div_round_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mask_div_round_ps
-// CHECK: @llvm.x86.avx10.vdivps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 10)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_div_round_ps(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_div_round_ps(__mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_maskz_div_round_ps
-// CHECK: @llvm.x86.avx10.vdivps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 9)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_maskz_div_round_ps(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_fcmadd_round_pch(__m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_fcmadd_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfcmaddcph256
- return _mm256_fcmadd_round_pch(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_fcmadd_round_pch(__m256h __A, __mmask8 __U, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_fcmadd_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfcmaddcph256
-// CHECK: %{{.*}} = select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_fcmadd_round_pch(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask3_fcmadd_round_pch(__m256h __A, __m256h __B, __m256h __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fcmadd_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfcmaddcph256
-// CHECK-NOT: %{{.*}} = select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask3_fcmadd_round_pch(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_fcmadd_round_pch(__mmask8 __U, __m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_maskz_fcmadd_round_pch
-// CHECK: @llvm.x86.avx10.maskz.vfcmaddcph256
- return _mm256_maskz_fcmadd_round_pch(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_cmul_round_pch(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_cmul_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfcmulcph256
- return _mm256_cmul_round_pch(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_cmul_round_pch(__m256h __W, __mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_cmul_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfcmulcph256
- return _mm256_mask_cmul_round_pch(__W, __U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_cmul_round_pch(__mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_cmul_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfcmulcph256
- return _mm256_maskz_cmul_round_pch(__U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_fixupimm_round_pd(__m256d __A, __m256d __B, __m256i __C) {
-// CHECK-LABEL: @test_mm256_fixupimm_round_pd
-// CHECK: @llvm.x86.avx10.mask.vfixupimmpd256
- return _mm256_fixupimm_round_pd(__A, __B, __C, 5, 8);
-}
-
-__m256d test_mm256_mask_fixupimm_round_pd(__m256d __A, __mmask8 __U, __m256d __B, __m256i __C) {
-// CHECK-LABEL: @test_mm256_mask_fixupimm_round_pd
-// CHECK: @llvm.x86.avx10.mask.vfixupimmpd256
- return _mm256_mask_fixupimm_round_pd(__A, __U, __B, __C, 5, 8);
-}
-
-__m256d test_mm256_maskz_fixupimm_round_pd(__mmask8 __U, __m256d __A, __m256d __B, __m256i __C) {
-// CHECK-LABEL: @test_mm256_maskz_fixupimm_round_pd
-// CHECK: @llvm.x86.avx10.maskz.vfixupimmpd256
- return _mm256_maskz_fixupimm_round_pd(__U, __A, __B, __C, 5, 8);
-}
-
-__m256 test_mm256_fixupimm_round_ps(__m256 __A, __m256 __B, __m256i __C) {
-// CHECK-LABEL: @test_mm256_fixupimm_round_ps
-// CHECK: @llvm.x86.avx10.mask.vfixupimmps256
- return _mm256_fixupimm_round_ps(__A, __B, __C, 5, 8);
-}
-
-__m256 test_mm256_mask_fixupimm_round_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256i __C) {
-// CHECK-LABEL: @test_mm256_mask_fixupimm_round_ps
-// CHECK: @llvm.x86.avx10.mask.vfixupimmps256
- return _mm256_mask_fixupimm_round_ps(__A, __U, __B, __C, 5, 8);
-}
-
-__m256 test_mm256_maskz_fixupimm_round_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256i __C) {
-// CHECK-LABEL: @test_mm256_maskz_fixupimm_round_ps
-// CHECK: @llvm.x86.avx10.maskz.vfixupimmps256
- return _mm256_maskz_fixupimm_round_ps(__U, __A, __B, __C, 5, 8);
-}
-
-__m256d test_mm256_fmadd_round_pd(__m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_fmadd_round_pd
-// CHECK: @llvm.x86.avx10.vfmaddpd256
- return _mm256_fmadd_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_fmadd_round_pd(__m256d __A, __mmask8 __U, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_mask_fmadd_round_pd
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_fmadd_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask3_fmadd_round_pd(__m256d __A, __m256d __B, __m256d __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmadd_round_pd
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask3_fmadd_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_fmadd_round_pd(__mmask8 __U, __m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmadd_round_pd
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> zeroinitializer
- return _mm256_maskz_fmadd_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_fmsub_round_pd(__m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_fmsub_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
- return _mm256_fmsub_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_fmsub_round_pd(__m256d __A, __mmask8 __U, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_mask_fmsub_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_fmsub_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_fmsub_round_pd(__mmask8 __U, __m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmsub_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> zeroinitializer
- return _mm256_maskz_fmsub_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_fnmadd_round_pd(__m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_fnmadd_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
- return _mm256_fnmadd_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask3_fnmadd_round_pd(__m256d __A, __m256d __B, __m256d __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fnmadd_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask3_fnmadd_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_fnmadd_round_pd(__mmask8 __U, __m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_maskz_fnmadd_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> zeroinitializer
- return _mm256_maskz_fnmadd_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_fnmsub_round_pd(__m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_fnmsub_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
- return _mm256_fnmsub_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_fnmsub_round_pd(__mmask8 __U, __m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_maskz_fnmsub_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> zeroinitializer
- return _mm256_maskz_fnmsub_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_fmadd_round_ph(__m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_fmadd_round_ph
-// CHECK: @llvm.x86.avx10.vfmaddph256
- return _mm256_fmadd_round_ph(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_fmadd_round_ph(__m256h __A, __mmask16 __U, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_fmadd_round_ph
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_fmadd_round_ph(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask3_fmadd_round_ph(__m256h __A, __m256h __B, __m256h __C, __mmask16 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmadd_round_ph
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask3_fmadd_round_ph(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_fmadd_round_ph(__mmask16 __U, __m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmadd_round_ph
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> zeroinitializer
- return _mm256_maskz_fmadd_round_ph(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_fmsub_round_ph(__m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_fmsub_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
- return _mm256_fmsub_round_ph(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_fmsub_round_ph(__m256h __A, __mmask16 __U, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_fmsub_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_fmsub_round_ph(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_fmsub_round_ph(__mmask16 __U, __m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmsub_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> zeroinitializer
- return _mm256_maskz_fmsub_round_ph(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_fnmadd_round_ph(__m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_fnmadd_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
- return _mm256_fnmadd_round_ph(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask3_fnmadd_round_ph(__m256h __A, __m256h __B, __m256h __C, __mmask16 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fnmadd_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask3_fnmadd_round_ph(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_fnmadd_round_ph(__mmask16 __U, __m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_maskz_fnmadd_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> zeroinitializer
- return _mm256_maskz_fnmadd_round_ph(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_fnmsub_round_ph(__m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_fnmsub_round_ph
-// CHECK: fneg
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
- return _mm256_fnmsub_round_ph(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_fnmsub_round_ph(__mmask16 __U, __m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_maskz_fnmsub_round_ph
-// CHECK: fneg
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> zeroinitializer
- return _mm256_maskz_fnmsub_round_ph(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_fmadd_round_ps(__m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_fmadd_round_ps
-// CHECK: @llvm.x86.avx10.vfmaddps256
- return _mm256_fmadd_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_fmadd_round_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_mask_fmadd_round_ps
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_fmadd_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask3_fmadd_round_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmadd_round_ps
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask3_fmadd_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_fmadd_round_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmadd_round_ps
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> zeroinitializer
- return _mm256_maskz_fmadd_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_fmsub_round_ps(__m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_fmsub_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
- return _mm256_fmsub_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_fmsub_round_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_mask_fmsub_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_fmsub_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_fmsub_round_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmsub_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> zeroinitializer
- return _mm256_maskz_fmsub_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_fnmadd_round_ps(__m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_fnmadd_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
- return _mm256_fnmadd_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask3_fnmadd_round_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fnmadd_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask3_fnmadd_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_fnmadd_round_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_maskz_fnmadd_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> zeroinitializer
- return _mm256_maskz_fnmadd_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_fnmsub_round_ps(__m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_fnmsub_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
- return _mm256_fnmsub_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_fnmsub_round_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_maskz_fnmsub_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> zeroinitializer
- return _mm256_maskz_fnmsub_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_fmadd_round_pch(__m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_fmadd_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfmaddcph256
- return _mm256_fmadd_round_pch(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_fmadd_round_pch(__m256h __A, __mmask8 __U, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_fmadd_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfmaddcph256
-// CHECK: %{{.*}} = select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_fmadd_round_pch(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask3_fmadd_round_pch(__m256h __A, __m256h __B, __m256h __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmadd_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfmaddcph256
-// CHECK-NOT: %{{.*}} = select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask3_fmadd_round_pch(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_fmadd_round_pch(__mmask8 __U, __m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmadd_round_pch
-// CHECK: @llvm.x86.avx10.maskz.vfmaddcph256
- return _mm256_maskz_fmadd_round_pch(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_fmaddsub_round_pd(__m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_fmaddsub_round_pd
-// CHECK: @llvm.x86.avx10.vfmaddsubpd256
- return _mm256_fmaddsub_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_fmaddsub_round_pd(__m256d __A, __mmask8 __U, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_mask_fmaddsub_round_pd
-// CHECK: @llvm.x86.avx10.vfmaddsubpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_fmaddsub_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask3_fmaddsub_round_pd(__m256d __A, __m256d __B, __m256d __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmaddsub_round_pd
-// CHECK: @llvm.x86.avx10.vfmaddsubpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask3_fmaddsub_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_fmaddsub_round_pd(__mmask8 __U, __m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmaddsub_round_pd
-// CHECK: @llvm.x86.avx10.vfmaddsubpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> zeroinitializer
- return _mm256_maskz_fmaddsub_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_fmsubadd_round_pd(__m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_fmsubadd_round_pd
-// CHECK: fneg <4 x double> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddsubpd256
- return _mm256_fmsubadd_round_pd(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_fmsubadd_round_pd(__m256d __A, __mmask8 __U, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_mask_fmsubadd_round_pd
-// CHECK: fneg <4 x double> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddsubpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_fmsubadd_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_fmsubadd_round_pd(__mmask8 __U, __m256d __A, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmsubadd_round_pd
-// CHECK: fneg <4 x double> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddsubpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> zeroinitializer
- return _mm256_maskz_fmsubadd_round_pd(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_fmaddsub_round_ph(__m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_fmaddsub_round_ph
-// CHECK: @llvm.x86.avx10.vfmaddsubph256
- return _mm256_fmaddsub_round_ph(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_fmaddsub_round_ph(__m256h __A, __mmask16 __U, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_fmaddsub_round_ph
-// CHECK: @llvm.x86.avx10.vfmaddsubph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_fmaddsub_round_ph(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask3_fmaddsub_round_ph(__m256h __A, __m256h __B, __m256h __C, __mmask16 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmaddsub_round_ph
-// CHECK: @llvm.x86.avx10.vfmaddsubph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask3_fmaddsub_round_ph(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_fmaddsub_round_ph(__mmask16 __U, __m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmaddsub_round_ph
-// CHECK: @llvm.x86.avx10.vfmaddsubph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> zeroinitializer
- return _mm256_maskz_fmaddsub_round_ph(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_fmsubadd_round_ph(__m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_fmsubadd_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddsubph256
- return _mm256_fmsubadd_round_ph(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_fmsubadd_round_ph(__m256h __A, __mmask16 __U, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_fmsubadd_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddsubph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_fmsubadd_round_ph(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_fmsubadd_round_ph(__mmask16 __U, __m256h __A, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmsubadd_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddsubph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> zeroinitializer
- return _mm256_maskz_fmsubadd_round_ph(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_fmaddsub_round_ps(__m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_fmaddsub_round_ps
-// CHECK: @llvm.x86.avx10.vfmaddsubps256
- return _mm256_fmaddsub_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_fmaddsub_round_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_mask_fmaddsub_round_ps
-// CHECK: @llvm.x86.avx10.vfmaddsubps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_fmaddsub_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask3_fmaddsub_round_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmaddsub_round_ps
-// CHECK: @llvm.x86.avx10.vfmaddsubps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask3_fmaddsub_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_fmaddsub_round_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmaddsub_round_ps
-// CHECK: @llvm.x86.avx10.vfmaddsubps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> zeroinitializer
- return _mm256_maskz_fmaddsub_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_fmsubadd_round_ps(__m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_fmsubadd_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddsubps256
- return _mm256_fmsubadd_round_ps(__A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_fmsubadd_round_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_mask_fmsubadd_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddsubps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_fmsubadd_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_fmsubadd_round_ps(__mmask8 __U, __m256 __A, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_maskz_fmsubadd_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddsubps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> zeroinitializer
- return _mm256_maskz_fmsubadd_round_ps(__U, __A, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask3_fmsub_round_pd(__m256d __A, __m256d __B, __m256d __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmsub_round_pd
-// CHECK: fneg <4 x double> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask3_fmsub_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask3_fmsubadd_round_pd(__m256d __A, __m256d __B, __m256d __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmsubadd_round_pd
-// CHECK: fneg <4 x double> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddsubpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask3_fmsubadd_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_fnmadd_round_pd(__m256d __A, __mmask8 __U, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_mask_fnmadd_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_fnmadd_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_fnmsub_round_pd(__m256d __A, __mmask8 __U, __m256d __B, __m256d __C) {
-// CHECK-LABEL: @test_mm256_mask_fnmsub_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_fnmsub_round_pd(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask3_fnmsub_round_pd(__m256d __A, __m256d __B, __m256d __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fnmsub_round_pd
-// CHECK: fneg <4 x double>
-// CHECK: fneg <4 x double>
-// CHECK: @llvm.x86.avx10.vfmaddpd256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask3_fnmsub_round_pd(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask3_fmsub_round_ph(__m256h __A, __m256h __B, __m256h __C, __mmask16 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmsub_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask3_fmsub_round_ph(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask3_fmsubadd_round_ph(__m256h __A, __m256h __B, __m256h __C, __mmask16 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmsubadd_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddsubph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask3_fmsubadd_round_ph(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_fnmadd_round_ph(__m256h __A, __mmask16 __U, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_fnmadd_round_ph
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_fnmadd_round_ph(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_fnmsub_round_ph(__m256h __A, __mmask16 __U, __m256h __B, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_fnmsub_round_ph
-// CHECK: fneg
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_fnmsub_round_ph(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask3_fnmsub_round_ph(__m256h __A, __m256h __B, __m256h __C, __mmask16 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fnmsub_round_ph
-// CHECK: fneg
-// CHECK: fneg
-// CHECK: @llvm.x86.avx10.vfmaddph256
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask3_fnmsub_round_ph(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask3_fmsub_round_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmsub_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask3_fmsub_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask3_fmsubadd_round_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fmsubadd_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddsubps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask3_fmsubadd_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_fnmadd_round_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_mask_fnmadd_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_fnmadd_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_fnmsub_round_ps(__m256 __A, __mmask8 __U, __m256 __B, __m256 __C) {
-// CHECK-LABEL: @test_mm256_mask_fnmsub_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_fnmsub_round_ps(__A, __U, __B, __C, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask3_fnmsub_round_ps(__m256 __A, __m256 __B, __m256 __C, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_mask3_fnmsub_round_ps
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: fneg <8 x float> %{{.*}}
-// CHECK: @llvm.x86.avx10.vfmaddps256
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask3_fnmsub_round_ps(__A, __B, __C, __U, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mul_round_pch(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mul_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfmulcph256
- return _mm256_mul_round_pch(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_mul_round_pch(__m256h __W, __mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_mul_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfmulcph256
- return _mm256_mask_mul_round_pch(__W, __U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_mul_round_pch(__mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_mul_round_pch
-// CHECK: @llvm.x86.avx10.mask.vfmulcph256
- return _mm256_maskz_mul_round_pch(__U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_getexp_round_pd(__m256d __A) {
-// CHECK-LABEL: @test_mm256_getexp_round_pd
-// CHECK: @llvm.x86.avx10.mask.vgetexppd256
- return _mm256_getexp_round_pd(__A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_getexp_round_pd(__m256d __W, __mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_mask_getexp_round_pd
-// CHECK: @llvm.x86.avx10.mask.vgetexppd256
- return _mm256_mask_getexp_round_pd(__W, __U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_getexp_round_pd(__mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_maskz_getexp_round_pd
-// CHECK: @llvm.x86.avx10.mask.vgetexppd256
- return _mm256_maskz_getexp_round_pd(__U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_getexp_round_ph(__m256h __A) {
-// CHECK-LABEL: @test_mm256_getexp_round_ph
-// CHECK: @llvm.x86.avx10.mask.vgetexpph256
- return _mm256_getexp_round_ph(__A, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_getexp_round_ph(__m256h __W, __mmask16 __U, __m256h __A) {
-// CHECK-LABEL: @test_mm256_mask_getexp_round_ph
-// CHECK: @llvm.x86.avx10.mask.vgetexpph256
- return _mm256_mask_getexp_round_ph(__W, __U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_getexp_round_ph(__mmask16 __U, __m256h __A) {
-// CHECK-LABEL: @test_mm256_maskz_getexp_round_ph
-// CHECK: @llvm.x86.avx10.mask.vgetexpph256
- return _mm256_maskz_getexp_round_ph(__U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_getexp_round_ps(__m256 __A) {
-// CHECK-LABEL: @test_mm256_getexp_round_ps
-// CHECK: @llvm.x86.avx10.mask.vgetexpps256
- return _mm256_getexp_round_ps(__A, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_getexp_round_ps(__m256 __W, __mmask8 __U, __m256 __A) {
-// CHECK-LABEL: @test_mm256_mask_getexp_round_ps
-// CHECK: @llvm.x86.avx10.mask.vgetexpps256
- return _mm256_mask_getexp_round_ps(__W, __U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_getexp_round_ps(__mmask8 __U, __m256 __A) {
-// CHECK-LABEL: @test_mm256_maskz_getexp_round_ps
-// CHECK: @llvm.x86.avx10.mask.vgetexpps256
- return _mm256_maskz_getexp_round_ps(__U, __A, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_getmant_round_pd(__m256d __A) {
-// CHECK-LABEL: @test_mm256_getmant_round_pd
-// CHECK: @llvm.x86.avx10.mask.vgetmantpd256
- return _mm256_getmant_round_pd(__A,_MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_getmant_round_pd(__m256d __W, __mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_mask_getmant_round_pd
-// CHECK: @llvm.x86.avx10.mask.vgetmantpd256
- return _mm256_mask_getmant_round_pd(__W, __U, __A,_MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_getmant_round_pd(__mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_maskz_getmant_round_pd
-// CHECK: @llvm.x86.avx10.mask.vgetmantpd256
- return _mm256_maskz_getmant_round_pd(__U, __A,_MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_getmant_round_ph(__m256h __A) {
-// CHECK-LABEL: @test_mm256_getmant_round_ph
-// CHECK: @llvm.x86.avx10.mask.vgetmantph256
- return _mm256_getmant_round_ph(__A, _MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_getmant_round_ph(__m256h __W, __mmask16 __U, __m256h __A) {
-// CHECK-LABEL: @test_mm256_mask_getmant_round_ph
-// CHECK: @llvm.x86.avx10.mask.vgetmantph256
- return _mm256_mask_getmant_round_ph(__W, __U, __A, _MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_getmant_round_ph(__mmask16 __U, __m256h __A) {
-// CHECK-LABEL: @test_mm256_maskz_getmant_round_ph
-// CHECK: @llvm.x86.avx10.mask.vgetmantph256
- return _mm256_maskz_getmant_round_ph(__U, __A, _MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_getmant_round_ps(__m256 __A) {
-// CHECK-LABEL: @test_mm256_getmant_round_ps
-// CHECK: @llvm.x86.avx10.mask.vgetmantps256
- return _mm256_getmant_round_ps(__A,_MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_getmant_round_ps(__m256 __W, __mmask8 __U, __m256 __A) {
-// CHECK-LABEL: @test_mm256_mask_getmant_round_ps
-// CHECK: @llvm.x86.avx10.mask.vgetmantps256
- return _mm256_mask_getmant_round_ps(__W, __U, __A,_MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_getmant_round_ps(__mmask8 __U, __m256 __A) {
-// CHECK-LABEL: @test_mm256_maskz_getmant_round_ps
-// CHECK: @llvm.x86.avx10.mask.vgetmantps256
- return _mm256_maskz_getmant_round_ps(__U, __A,_MM_MANT_NORM_p5_2, _MM_MANT_SIGN_nan, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_max_round_pd(__m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_max_round_pd
-// CHECK: @llvm.x86.avx10.vmaxpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 8)
- return _mm256_max_round_pd(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_max_round_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mask_max_round_pd
-// CHECK: @llvm.x86.avx10.vmaxpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 8)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_max_round_pd(__W, __U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_max_round_pd(__mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_maskz_max_round_pd
-// CHECK: @llvm.x86.avx10.vmaxpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 8)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_maskz_max_round_pd(__U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_max_round_ph(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_max_round_ph
-// CHECK: @llvm.x86.avx10.vmaxph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 8)
- return _mm256_max_round_ph(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_max_round_ph(__m256h __W, __mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_max_round_ph
-// CHECK: @llvm.x86.avx10.vmaxph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 8)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_max_round_ph(__W, __U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_max_round_ph(__mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_max_round_ph
-// CHECK: @llvm.x86.avx10.vmaxph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 8)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_maskz_max_round_ph(__U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_max_round_ps(__m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_max_round_ps
-// CHECK: @llvm.x86.avx10.vmaxps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 8)
- return _mm256_max_round_ps(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_max_round_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mask_max_round_ps
-// CHECK: @llvm.x86.avx10.vmaxps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 8)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_max_round_ps(__W, __U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_max_round_ps(__mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_maskz_max_round_ps
-// CHECK: @llvm.x86.avx10.vmaxps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 8)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_maskz_max_round_ps(__U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_min_round_pd(__m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_min_round_pd
-// CHECK: @llvm.x86.avx10.vminpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 8)
- return _mm256_min_round_pd(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_min_round_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mask_min_round_pd
-// CHECK: @llvm.x86.avx10.vminpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 8)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_min_round_pd(__W, __U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_min_round_pd(__mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_maskz_min_round_pd
-// CHECK: @llvm.x86.avx10.vminpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 8)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_maskz_min_round_pd(__U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_min_round_ph(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_min_round_ph
-// CHECK: @llvm.x86.avx10.vminph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 8)
- return _mm256_min_round_ph(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_min_round_ph(__m256h __W, __mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_min_round_ph
-// CHECK: @llvm.x86.avx10.vminph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 8)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_min_round_ph(__W, __U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_min_round_ph(__mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_min_round_ph
-// CHECK: @llvm.x86.avx10.vminph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 8)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_maskz_min_round_ph(__U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_min_round_ps(__m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_min_round_ps
-// CHECK: @llvm.x86.avx10.vminps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 8)
- return _mm256_min_round_ps(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_min_round_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mask_min_round_ps
-// CHECK: @llvm.x86.avx10.vminps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 8)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_min_round_ps(__W, __U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_min_round_ps(__mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_maskz_min_round_ps
-// CHECK: @llvm.x86.avx10.vminps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 8)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_maskz_min_round_ps(__U, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mul_round_pd(__m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mul_round_pd
-// CHECK: @llvm.x86.avx10.vmulpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 11)
- return _mm256_mul_round_pd(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_mul_round_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mask_mul_round_pd
-// CHECK: @llvm.x86.avx10.vmulpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 10)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_mul_round_pd(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_mul_round_pd(__mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_maskz_mul_round_pd
-// CHECK: @llvm.x86.avx10.vmulpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 9)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_maskz_mul_round_pd(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mul_round_ph(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mul_round_ph
-// CHECK: @llvm.x86.avx10.vmulph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 11)
- return _mm256_mul_round_ph(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_mul_round_ph(__m256h __W, __mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_mul_round_ph
-// CHECK: @llvm.x86.avx10.vmulph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 10)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_mul_round_ph(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_mul_round_ph(__mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_mul_round_ph
-// CHECK: @llvm.x86.avx10.vmulph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 9)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_maskz_mul_round_ph(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mul_round_ps(__m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mul_round_ps
-// CHECK: @llvm.x86.avx10.vmulps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 11)
- return _mm256_mul_round_ps(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_mul_round_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mask_mul_round_ps
-// CHECK: @llvm.x86.avx10.vmulps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 10)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_mul_round_ps(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_mul_round_ps(__mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_maskz_mul_round_ps
-// CHECK: @llvm.x86.avx10.vmulps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 9)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_maskz_mul_round_ps(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_range_round_pd(__m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_range_round_pd
-// CHECK: @llvm.x86.avx10.mask.vrangepd256
- return _mm256_range_round_pd(__A, __B, 4, 8);
-}
-
-__m256d test_mm256_mask_range_round_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mask_range_round_pd
-// CHECK: @llvm.x86.avx10.mask.vrangepd256
- return _mm256_mask_range_round_pd(__W, __U, __A, __B, 4, 8);
-}
-
-__m256d test_mm256_maskz_range_round_pd(__mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_maskz_range_round_pd
-// CHECK: @llvm.x86.avx10.mask.vrangepd256
- return _mm256_maskz_range_round_pd(__U, __A, __B, 4, 8);
-}
-
-__m256 test_mm256_range_round_ps(__m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_range_round_ps
-// CHECK: @llvm.x86.avx10.mask.vrangeps256
- return _mm256_range_round_ps(__A, __B, 4, 8);
-}
-
-__m256 test_mm256_mask_range_round_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mask_range_round_ps
-// CHECK: @llvm.x86.avx10.mask.vrangeps256
- return _mm256_mask_range_round_ps(__W, __U, __A, __B, 4, 8);
-}
-
-__m256 test_mm256_maskz_range_round_ps(__mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_maskz_range_round_ps
-// CHECK: @llvm.x86.avx10.mask.vrangeps256
- return _mm256_maskz_range_round_ps(__U, __A, __B, 4, 8);
-}
-
-__m256d test_mm256_reduce_round_pd(__m256d __A) {
-// CHECK-LABEL: @test_mm256_reduce_round_pd
-// CHECK: @llvm.x86.avx10.mask.vreducepd256
- return _mm256_reduce_round_pd(__A, 4, 8);
-}
-
-__m256d test_mm256_mask_reduce_round_pd(__m256d __W, __mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_mask_reduce_round_pd
-// CHECK: @llvm.x86.avx10.mask.vreducepd256
- return _mm256_mask_reduce_round_pd(__W, __U, __A, 4, 8);
-}
-
-__m256d test_mm256_maskz_reduce_round_pd(__mmask8 __U, __m256d __A) {
-// CHECK-LABEL: @test_mm256_maskz_reduce_round_pd
-// CHECK: @llvm.x86.avx10.mask.vreducepd256
- return _mm256_maskz_reduce_round_pd(__U, __A, 4, 8);
-}
-
-__m256h test_mm256_mask_reduce_round_ph(__m256h __A, __mmask8 __U, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_reduce_round_ph
-// CHECK: @llvm.x86.avx10.mask.vreduceph256
- return _mm256_mask_reduce_round_ph(__A, __U, __C, 3, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_reduce_round_ph(__m256h __A, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_maskz_reduce_round_ph
-// CHECK: @llvm.x86.avx10.mask.vreduceph256
- return _mm256_maskz_reduce_round_ph(__U, __A, 3, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_reduce_round_ph(__m256h __A) {
-// CHECK-LABEL: @test_mm256_reduce_round_ph
-// CHECK: @llvm.x86.avx10.mask.vreduceph256
- return _mm256_reduce_round_ph(__A, 3, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_reduce_round_ps(__m256 __A) {
-// CHECK-LABEL: @test_mm256_reduce_round_ps
-// CHECK: @llvm.x86.avx10.mask.vreduceps256
- return _mm256_reduce_round_ps(__A, 4, 8);
-}
-
-__m256 test_mm256_mask_reduce_round_ps(__m256 __W, __mmask8 __U, __m256 __A) {
-// CHECK-LABEL: @test_mm256_mask_reduce_round_ps
-// CHECK: @llvm.x86.avx10.mask.vreduceps256
- return _mm256_mask_reduce_round_ps(__W, __U, __A, 4, 8);
-}
-
-__m256 test_mm256_maskz_reduce_round_ps(__mmask8 __U, __m256 __A) {
-// CHECK-LABEL: @test_mm256_maskz_reduce_round_ps
-// CHECK: @llvm.x86.avx10.mask.vreduceps256
- return _mm256_maskz_reduce_round_ps(__U, __A, 4, 8);
-}
-
-__m256d test_mm256_roundscale_round_pd(__m256d __A)
-{
-// CHECK-LABEL: @test_mm256_roundscale_round_pd
-// CHECK: @llvm.x86.avx10.mask.vrndscalepd256
- return _mm256_roundscale_round_pd(__A,_MM_FROUND_TO_ZERO,_MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_roundscale_round_pd(__m256d __A,__mmask8 __U,__m256d __C)
-{
-// CHECK-LABEL: @test_mm256_mask_roundscale_round_pd
-// CHECK: @llvm.x86.avx10.mask.vrndscalepd256
- return _mm256_mask_roundscale_round_pd(__A,__U,__C,_MM_FROUND_TO_ZERO,_MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_roundscale_round_pd(__m256d __A,__mmask8 __U)
-{
-// CHECK-LABEL: @test_mm256_maskz_roundscale_round_pd
-// CHECK: @llvm.x86.avx10.mask.vrndscalepd256
- return _mm256_maskz_roundscale_round_pd(__U,__A,_MM_FROUND_TO_ZERO,_MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_roundscale_round_ph(__m256h __A, __mmask8 __U, __m256h __C) {
-// CHECK-LABEL: @test_mm256_mask_roundscale_round_ph
-// CHECK: @llvm.x86.avx10.mask.vrndscaleph256
- return _mm256_mask_roundscale_round_ph(__A, __U, __C, 3, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_roundscale_round_ph(__m256h __A, __mmask8 __U) {
-// CHECK-LABEL: @test_mm256_maskz_roundscale_round_ph
-// CHECK: @llvm.x86.avx10.mask.vrndscaleph256
- return _mm256_maskz_roundscale_round_ph(__U, __A, 3, _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_roundscale_round_ph(__m256h __A) {
-// CHECK-LABEL: @test_mm256_roundscale_round_ph
-// CHECK: @llvm.x86.avx10.mask.vrndscaleph256
- return _mm256_roundscale_round_ph(__A, 3, _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_roundscale_round_ps(__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_roundscale_round_ps
-// CHECK: @llvm.x86.avx10.mask.vrndscaleps256
- return _mm256_roundscale_round_ps(__A,_MM_FROUND_TO_ZERO,_MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_roundscale_round_ps(__m256 __A,__mmask8 __U,__m256 __C)
-{
-// CHECK-LABEL: @test_mm256_mask_roundscale_round_ps
-// CHECK: @llvm.x86.avx10.mask.vrndscaleps256
- return _mm256_mask_roundscale_round_ps(__A,__U,__C,_MM_FROUND_TO_ZERO,_MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_roundscale_round_ps(__m256 __A,__mmask8 __U)
-{
-// CHECK-LABEL: @test_mm256_maskz_roundscale_round_ps
-// CHECK: @llvm.x86.avx10.mask.vrndscaleps256
- return _mm256_maskz_roundscale_round_ps(__U,__A,_MM_FROUND_TO_ZERO,_MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_scalef_round_pd(__m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_scalef_round_pd
-// CHECK: @llvm.x86.avx10.mask.vscalefpd256
- return _mm256_scalef_round_pd(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_scalef_round_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mask_scalef_round_pd
-// CHECK: @llvm.x86.avx10.mask.vscalefpd256
- return _mm256_mask_scalef_round_pd(__W, __U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_scalef_round_pd(__mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_maskz_scalef_round_pd
-// CHECK: @llvm.x86.avx10.mask.vscalefpd256
- return _mm256_maskz_scalef_round_pd(__U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_scalef_round_ph(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_scalef_round_ph
-// CHECK: @llvm.x86.avx10.mask.vscalefph256
- return _mm256_scalef_round_ph(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_scalef_round_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_scalef_round_ph
-// CHECK: @llvm.x86.avx10.mask.vscalefph256
- return _mm256_mask_scalef_round_ph(__W, __U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_scalef_round_ph(__mmask16 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_scalef_round_ph
-// CHECK: @llvm.x86.avx10.mask.vscalefph256
- return _mm256_maskz_scalef_round_ph(__U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_scalef_round_ps(__m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_scalef_round_ps
-// CHECK: @llvm.x86.avx10.mask.vscalefps256
- return _mm256_scalef_round_ps(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_scalef_round_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mask_scalef_round_ps
-// CHECK: @llvm.x86.avx10.mask.vscalefps256
- return _mm256_mask_scalef_round_ps(__W, __U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_scalef_round_ps(__mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_maskz_scalef_round_ps
-// CHECK: @llvm.x86.avx10.mask.vscalefps256
- return _mm256_maskz_scalef_round_ps(__U, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_sqrt_round_pd(__m256d __A)
-{
-// CHECK-LABEL: @test_mm256_sqrt_round_pd
-// CHECK: call <4 x double> @llvm.x86.avx10.vsqrtpd256(<4 x double> %{{.*}}, i32 11)
- return _mm256_sqrt_round_pd(__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_sqrt_round_pd(__m256d __W,__mmask8 __U,__m256d __A)
-{
-// CHECK-LABEL: @test_mm256_mask_sqrt_round_pd
-// CHECK: call <4 x double> @llvm.x86.avx10.vsqrtpd256(<4 x double> %{{.*}}, i32 11)
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_sqrt_round_pd(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_sqrt_round_pd(__mmask8 __U,__m256d __A)
-{
-// CHECK-LABEL: @test_mm256_maskz_sqrt_round_pd
-// CHECK: call <4 x double> @llvm.x86.avx10.vsqrtpd256(<4 x double> %{{.*}}, i32 11)
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> {{.*}}
- return _mm256_maskz_sqrt_round_pd(__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_sqrt_round_ph(__m256h __A) {
-// CHECK-LABEL: @test_mm256_sqrt_round_ph
-// CHECK: call <16 x half> @llvm.x86.avx10.vsqrtph256(<16 x half> %{{.*}}, i32 11)
- return _mm256_sqrt_round_ph(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_sqrt_round_ph(__m256h __W, __mmask16 __U, __m256h __A) {
-// CHECK-LABEL: @test_mm256_mask_sqrt_round_ph
-// CHECK: call <16 x half> @llvm.x86.avx10.vsqrtph256(<16 x half> %{{.*}}, i32 11)
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_sqrt_round_ph(__W, __U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_sqrt_round_ph(__mmask16 __U, __m256h __A) {
-// CHECK-LABEL: @test_mm256_maskz_sqrt_round_ph
-// CHECK: call <16 x half> @llvm.x86.avx10.vsqrtph256(<16 x half> %{{.*}}, i32 11)
-// CHECK: bitcast i16 %{{.*}} to <16 x i1>
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> {{.*}}
- return _mm256_maskz_sqrt_round_ph(__U, __A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_sqrt_round_ps(__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_sqrt_round_ps
-// CHECK: call <8 x float> @llvm.x86.avx10.vsqrtps256(<8 x float> %{{.*}}, i32 11)
- return _mm256_sqrt_round_ps(__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_sqrt_round_ps(__m256 __W,__mmask8 __U,__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_mask_sqrt_round_ps
-// CHECK: call <8 x float> @llvm.x86.avx10.vsqrtps256(<8 x float> %{{.*}}, i32 11)
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_sqrt_round_ps(__W,__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_sqrt_round_ps(__mmask8 __U,__m256 __A)
-{
-// CHECK-LABEL: @test_mm256_maskz_sqrt_round_ps
-// CHECK: call <8 x float> @llvm.x86.avx10.vsqrtps256(<8 x float> %{{.*}}, i32 11)
-// CHECK: bitcast i8 %{{.*}} to <8 x i1>
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> {{.*}}
- return _mm256_maskz_sqrt_round_ps(__U,__A,_MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_sub_round_pd(__m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_sub_round_pd
-// CHECK: @llvm.x86.avx10.vsubpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 11)
- return _mm256_sub_round_pd(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_mask_sub_round_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_mask_sub_round_pd
-// CHECK: @llvm.x86.avx10.vsubpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 10)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_mask_sub_round_pd(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256d test_mm256_maskz_sub_round_pd(__mmask8 __U, __m256d __A, __m256d __B) {
-// CHECK-LABEL: @test_mm256_maskz_sub_round_pd
-// CHECK: @llvm.x86.avx10.vsubpd256(<4 x double> %{{.*}}, <4 x double> %{{.*}}, i32 9)
-// CHECK: select <4 x i1> %{{.*}}, <4 x double> %{{.*}}, <4 x double> %{{.*}}
- return _mm256_maskz_sub_round_pd(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_sub_round_ph(__m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_sub_round_ph
-// CHECK: @llvm.x86.avx10.vsubph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 11)
- return _mm256_sub_round_ph(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_mask_sub_round_ph(__m256h __W, __mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_mask_sub_round_ph
-// CHECK: @llvm.x86.avx10.vsubph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 10)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_mask_sub_round_ph(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256h test_mm256_maskz_sub_round_ph(__mmask8 __U, __m256h __A, __m256h __B) {
-// CHECK-LABEL: @test_mm256_maskz_sub_round_ph
-// CHECK: @llvm.x86.avx10.vsubph256(<16 x half> %{{.*}}, <16 x half> %{{.*}}, i32 9)
-// CHECK: select <16 x i1> %{{.*}}, <16 x half> %{{.*}}, <16 x half> %{{.*}}
- return _mm256_maskz_sub_round_ph(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_sub_round_ps(__m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_sub_round_ps
-// CHECK: @llvm.x86.avx10.vsubps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 11)
- return _mm256_sub_round_ps(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_mask_sub_round_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_mask_sub_round_ps
-// CHECK: @llvm.x86.avx10.vsubps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 10)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_mask_sub_round_ps(__W, __U, __A, __B, _MM_FROUND_TO_POS_INF | _MM_FROUND_NO_EXC);
-}
-
-__m256 test_mm256_maskz_sub_round_ps(__mmask8 __U, __m256 __A, __m256 __B) {
-// CHECK-LABEL: @test_mm256_maskz_sub_round_ps
-// CHECK: @llvm.x86.avx10.vsubps256(<8 x float> %{{.*}}, <8 x float> %{{.*}}, i32 9)
-// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
- return _mm256_maskz_sub_round_ps(__U, __A, __B, _MM_FROUND_TO_NEG_INF | _MM_FROUND_NO_EXC);
-}
diff --git a/clang/test/CodeGen/X86/avx10_2satcvt-builtins.c b/clang/test/CodeGen/X86/avx10_2satcvt-builtins.c
index 7c5fc087b9da4..7f30befefffe9 100644
--- a/clang/test/CodeGen/X86/avx10_2satcvt-builtins.c
+++ b/clang/test/CodeGen/X86/avx10_2satcvt-builtins.c
@@ -5,599 +5,457 @@
#include <immintrin.h>
-__m128i test_mm_ipcvtbf16_epi8(__m128bh __A) {
- // CHECK-LABEL: @test_mm_ipcvtbf16_epi8(
+__m128i test_mm_ipcvts_bf16_epi8(__m128bh __A) {
+ // CHECK-LABEL: @test_mm_ipcvts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvtbf162ibs128
- return _mm_ipcvtbf16_epi8(__A);
+ return _mm_ipcvts_bf16_epi8(__A);
}
-__m128i test_mm_mask_ipcvtbf16_epi8(__m128i __S, __mmask8 __A, __m128bh __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvtbf16_epi8(
+__m128i test_mm_mask_ipcvts_bf16_epi8(__m128i __S, __mmask8 __A, __m128bh __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvtbf162ibs128
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
- return _mm_mask_ipcvtbf16_epi8(__S, __A, __B);
+ return _mm_mask_ipcvts_bf16_epi8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvtbf16_epi8(__mmask8 __A, __m128bh __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvtbf16_epi8(
+__m128i test_mm_maskz_ipcvts_bf16_epi8(__mmask8 __A, __m128bh __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvtbf162ibs128
// CHECK: zeroinitializer
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
- return _mm_maskz_ipcvtbf16_epi8(__A, __B);
+ return _mm_maskz_ipcvts_bf16_epi8(__A, __B);
}
-__m256i test_mm256_ipcvtbf16_epi8(__m256bh __A) {
- // CHECK-LABEL: @test_mm256_ipcvtbf16_epi8(
+__m256i test_mm256_ipcvts_bf16_epi8(__m256bh __A) {
+ // CHECK-LABEL: @test_mm256_ipcvts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvtbf162ibs256
- return _mm256_ipcvtbf16_epi8(__A);
+ return _mm256_ipcvts_bf16_epi8(__A);
}
-__m256i test_mm256_mask_ipcvtbf16_epi8(__m256i __S, __mmask16 __A, __m256bh __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtbf16_epi8(
+__m256i test_mm256_mask_ipcvts_bf16_epi8(__m256i __S, __mmask16 __A, __m256bh __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvtbf162ibs256
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
- return _mm256_mask_ipcvtbf16_epi8(__S, __A, __B);
+ return _mm256_mask_ipcvts_bf16_epi8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvtbf16_epi8(__mmask16 __A, __m256bh __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtbf16_epi8(
+__m256i test_mm256_maskz_ipcvts_bf16_epi8(__mmask16 __A, __m256bh __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvtbf162ibs256
// CHECK: zeroinitializer
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
- return _mm256_maskz_ipcvtbf16_epi8(__A, __B);
+ return _mm256_maskz_ipcvts_bf16_epi8(__A, __B);
}
-__m128i test_mm_ipcvtbf16_epu8(__m128bh __A) {
- // CHECK-LABEL: @test_mm_ipcvtbf16_epu8(
+__m128i test_mm_ipcvts_bf16_epu8(__m128bh __A) {
+ // CHECK-LABEL: @test_mm_ipcvts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvtbf162iubs128
- return _mm_ipcvtbf16_epu8(__A);
+ return _mm_ipcvts_bf16_epu8(__A);
}
-__m128i test_mm_mask_ipcvtbf16_epu8(__m128i __S, __mmask8 __A, __m128bh __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvtbf16_epu8(
+__m128i test_mm_mask_ipcvts_bf16_epu8(__m128i __S, __mmask8 __A, __m128bh __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvtbf162iubs128
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
- return _mm_mask_ipcvtbf16_epu8(__S, __A, __B);
+ return _mm_mask_ipcvts_bf16_epu8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvtbf16_epu8(__mmask8 __A, __m128bh __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvtbf16_epu8(
+__m128i test_mm_maskz_ipcvts_bf16_epu8(__mmask8 __A, __m128bh __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvtbf162iubs128
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
- return _mm_maskz_ipcvtbf16_epu8(__A, __B);
+ return _mm_maskz_ipcvts_bf16_epu8(__A, __B);
}
-__m256i test_mm256_ipcvtbf16_epu8(__m256bh __A) {
- // CHECK-LABEL: @test_mm256_ipcvtbf16_epu8(
+__m256i test_mm256_ipcvts_bf16_epu8(__m256bh __A) {
+ // CHECK-LABEL: @test_mm256_ipcvts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvtbf162iubs256
- return _mm256_ipcvtbf16_epu8(__A);
+ return _mm256_ipcvts_bf16_epu8(__A);
}
-__m256i test_mm256_mask_ipcvtbf16_epu8(__m256i __S, __mmask16 __A, __m256bh __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtbf16_epu8(
+__m256i test_mm256_mask_ipcvts_bf16_epu8(__m256i __S, __mmask16 __A, __m256bh __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvtbf162iubs256
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
- return _mm256_mask_ipcvtbf16_epu8(__S, __A, __B);
+ return _mm256_mask_ipcvts_bf16_epu8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvtbf16_epu8(__mmask16 __A, __m256bh __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtbf16_epu8(
+__m256i test_mm256_maskz_ipcvts_bf16_epu8(__mmask16 __A, __m256bh __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvtbf162iubs256
// CHECK: zeroinitializer
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
- return _mm256_maskz_ipcvtbf16_epu8(__A, __B);
+ return _mm256_maskz_ipcvts_bf16_epu8(__A, __B);
}
-__m128i test_mm_ipcvtph_epi8(__m128h __A) {
- // CHECK-LABEL: @test_mm_ipcvtph_epi8(
+__m128i test_mm_ipcvts_ph_epi8(__m128h __A) {
+ // CHECK-LABEL: @test_mm_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs128
- return _mm_ipcvtph_epi8(__A);
+ return _mm_ipcvts_ph_epi8(__A);
}
-__m128i test_mm_mask_ipcvtph_epi8(__m128i __S, __mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvtph_epi8(
+__m128i test_mm_mask_ipcvts_ph_epi8(__m128i __S, __mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs128
- return _mm_mask_ipcvtph_epi8(__S, __A, __B);
+ return _mm_mask_ipcvts_ph_epi8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvtph_epi8(__mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvtph_epi8(
+__m128i test_mm_maskz_ipcvts_ph_epi8(__mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs128
- return _mm_maskz_ipcvtph_epi8(__A, __B);
+ return _mm_maskz_ipcvts_ph_epi8(__A, __B);
}
-__m256i test_mm256_ipcvtph_epi8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_ipcvtph_epi8(
+__m256i test_mm256_ipcvts_ph_epi8(__m256h __A) {
+ // CHECK-LABEL: @test_mm256_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs256
- return _mm256_ipcvtph_epi8(__A);
+ return _mm256_ipcvts_ph_epi8(__A);
}
-__m256i test_mm256_mask_ipcvtph_epi8(__m256i __S, __mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtph_epi8(
+__m256i test_mm256_mask_ipcvts_ph_epi8(__m256i __S, __mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs256
- return _mm256_mask_ipcvtph_epi8(__S, __A, __B);
+ return _mm256_mask_ipcvts_ph_epi8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvtph_epi8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtph_epi8(
+__m256i test_mm256_maskz_ipcvts_ph_epi8(__mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2ibs256
- return _mm256_maskz_ipcvtph_epi8(__A, __B);
+ return _mm256_maskz_ipcvts_ph_epi8(__A, __B);
}
-__m256i test_mm256_ipcvt_roundph_epi8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_ipcvt_roundph_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvtph2ibs256
- return _mm256_ipcvt_roundph_epi8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_ipcvt_roundph_epi8(__m256i __S, __mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvt_roundph_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvtph2ibs256
- return _mm256_mask_ipcvt_roundph_epi8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-__m256i test_mm256_maskz_ipcvt_roundph_epi8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvt_roundph_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvtph2ibs256
- return _mm256_maskz_ipcvt_roundph_epi8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm_ipcvtph_epu8(__m128h __A) {
- // CHECK-LABEL: @test_mm_ipcvtph_epu8(
+__m128i test_mm_ipcvts_ph_epu8(__m128h __A) {
+ // CHECK-LABEL: @test_mm_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs128
- return _mm_ipcvtph_epu8(__A);
+ return _mm_ipcvts_ph_epu8(__A);
}
-__m128i test_mm_mask_ipcvtph_epu8(__m128i __S, __mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvtph_epu8(
+__m128i test_mm_mask_ipcvts_ph_epu8(__m128i __S, __mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs128
- return _mm_mask_ipcvtph_epu8(__S, __A, __B);
+ return _mm_mask_ipcvts_ph_epu8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvtph_epu8(__mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvtph_epu8(
+__m128i test_mm_maskz_ipcvts_ph_epu8(__mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs128
- return _mm_maskz_ipcvtph_epu8(__A, __B);
-}
-
-__m256i test_mm256_ipcvtph_epu8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_ipcvtph_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvtph2iubs256
- return _mm256_ipcvtph_epu8(__A);
+ return _mm_maskz_ipcvts_ph_epu8(__A, __B);
}
-__m256i test_mm256_mask_ipcvtph_epu8(__m256i __S, __mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtph_epu8(
+__m256i test_mm256_ipcvts_ph_epu8(__m256h __A) {
+ // CHECK-LABEL: @test_mm256_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs256
- return _mm256_mask_ipcvtph_epu8(__S, __A, __B);
+ return _mm256_ipcvts_ph_epu8(__A);
}
-__m256i test_mm256_maskz_ipcvtph_epu8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtph_epu8(
+__m256i test_mm256_mask_ipcvts_ph_epu8(__m256i __S, __mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs256
- return _mm256_maskz_ipcvtph_epu8(__A, __B);
+ return _mm256_mask_ipcvts_ph_epu8(__S, __A, __B);
}
-__m256i test_mm256_ipcvt_roundph_epu8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_ipcvt_roundph_epu8(
+__m256i test_mm256_maskz_ipcvts_ph_epu8(__mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtph2iubs256
- return _mm256_ipcvt_roundph_epu8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
+ return _mm256_maskz_ipcvts_ph_epu8(__A, __B);
}
-__m256i test_mm256_mask_ipcvt_roundph_epu8(__m256i __S, __mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvt_roundph_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvtph2iubs256
- return _mm256_mask_ipcvt_roundph_epu8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-__m256i test_mm256_maskz_ipcvt_roundph_epu8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvt_roundph_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvtph2iubs256
- return _mm256_maskz_ipcvt_roundph_epu8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm_ipcvtps_epi8(__m128 __A) {
- // CHECK-LABEL: @test_mm_ipcvtps_epi8(
+__m128i test_mm_ipcvts_ps_epi8(__m128 __A) {
+ // CHECK-LABEL: @test_mm_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs128
- return _mm_ipcvtps_epi8(__A);
+ return _mm_ipcvts_ps_epi8(__A);
}
-__m128i test_mm_mask_ipcvtps_epi8(__m128i __S, __mmask8 __A, __m128 __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvtps_epi8(
+__m128i test_mm_mask_ipcvts_ps_epi8(__m128i __S, __mmask8 __A, __m128 __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs128
- return _mm_mask_ipcvtps_epi8(__S, __A, __B);
+ return _mm_mask_ipcvts_ps_epi8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvtps_epi8(__mmask8 __A, __m128 __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvtps_epi8(
+__m128i test_mm_maskz_ipcvts_ps_epi8(__mmask8 __A, __m128 __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs128
- return _mm_maskz_ipcvtps_epi8(__A, __B);
+ return _mm_maskz_ipcvts_ps_epi8(__A, __B);
}
-__m256i test_mm256_ipcvtps_epi8(__m256 __A) {
- // CHECK-LABEL: @test_mm256_ipcvtps_epi8(
+__m256i test_mm256_ipcvts_ps_epi8(__m256 __A) {
+ // CHECK-LABEL: @test_mm256_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs256
- return _mm256_ipcvtps_epi8(__A);
+ return _mm256_ipcvts_ps_epi8(__A);
}
-__m256i test_mm256_mask_ipcvtps_epi8(__m256i __S, __mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtps_epi8(
+__m256i test_mm256_mask_ipcvts_ps_epi8(__m256i __S, __mmask8 __A, __m256 __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs256
- return _mm256_mask_ipcvtps_epi8(__S, __A, __B);
+ return _mm256_mask_ipcvts_ps_epi8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvtps_epi8(__mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtps_epi8(
+__m256i test_mm256_maskz_ipcvts_ps_epi8(__mmask8 __A, __m256 __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2ibs256
- return _mm256_maskz_ipcvtps_epi8(__A, __B);
+ return _mm256_maskz_ipcvts_ps_epi8(__A, __B);
}
-__m256i test_mm256_ipcvt_roundps_epi8(__m256 __A) {
- // CHECK-LABEL: @test_mm256_ipcvt_roundps_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvtps2ibs256
- return _mm256_ipcvt_roundps_epi8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_ipcvt_roundps_epi8(__m256i __S, __mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvt_roundps_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvtps2ibs256
- return _mm256_mask_ipcvt_roundps_epi8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_ipcvt_roundps_epi8(__mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvt_roundps_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvtps2ibs256
- return _mm256_maskz_ipcvt_roundps_epi8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm_ipcvtps_epu8(__m128 __A) {
- // CHECK-LABEL: @test_mm_ipcvtps_epu8(
+__m128i test_mm_ipcvts_ps_epu8(__m128 __A) {
+ // CHECK-LABEL: @test_mm_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs128
- return _mm_ipcvtps_epu8(__A);
+ return _mm_ipcvts_ps_epu8(__A);
}
-__m128i test_mm_mask_ipcvtps_epu8(__m128i __S, __mmask8 __A, __m128 __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvtps_epu8(
+__m128i test_mm_mask_ipcvts_ps_epu8(__m128i __S, __mmask8 __A, __m128 __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs128
- return _mm_mask_ipcvtps_epu8(__S, __A, __B);
+ return _mm_mask_ipcvts_ps_epu8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvtps_epu8(__mmask8 __A, __m128 __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvtps_epu8(
+__m128i test_mm_maskz_ipcvts_ps_epu8(__mmask8 __A, __m128 __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs128
- return _mm_maskz_ipcvtps_epu8(__A, __B);
+ return _mm_maskz_ipcvts_ps_epu8(__A, __B);
}
-__m256i test_mm256_ipcvtps_epu8(__m256 __A) {
- // CHECK-LABEL: @test_mm256_ipcvtps_epu8(
+__m256i test_mm256_ipcvts_ps_epu8(__m256 __A) {
+ // CHECK-LABEL: @test_mm256_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs256
- return _mm256_ipcvtps_epu8(__A);
+ return _mm256_ipcvts_ps_epu8(__A);
}
-__m256i test_mm256_mask_ipcvtps_epu8(__m256i __S, __mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtps_epu8(
+__m256i test_mm256_mask_ipcvts_ps_epu8(__m256i __S, __mmask8 __A, __m256 __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs256
- return _mm256_mask_ipcvtps_epu8(__S, __A, __B);
+ return _mm256_mask_ipcvts_ps_epu8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvtps_epu8(__mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtps_epu8(
+__m256i test_mm256_maskz_ipcvts_ps_epu8(__mmask8 __A, __m256 __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvtps2iubs256
- return _mm256_maskz_ipcvtps_epu8(__A, __B);
+ return _mm256_maskz_ipcvts_ps_epu8(__A, __B);
}
-__m256i test_mm256_ipcvt_roundps_epu8(__m256 __A) {
- // CHECK-LABEL: @test_mm256_ipcvt_roundps_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvtps2iubs256
- return _mm256_ipcvt_roundps_epu8(__A, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_ipcvt_roundps_epu8(__m256i __S, __mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvt_roundps_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvtps2iubs256
- return _mm256_mask_ipcvt_roundps_epu8(__S, __A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_ipcvt_roundps_epu8(__mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvt_roundps_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvtps2iubs256
- return _mm256_maskz_ipcvt_roundps_epu8(__A, __B, _MM_FROUND_TO_ZERO | _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm_ipcvttbf16_epi8(__m128bh __A) {
- // CHECK-LABEL: @test_mm_ipcvttbf16_epi8(
+__m128i test_mm_ipcvtts_bf16_epi8(__m128bh __A) {
+ // CHECK-LABEL: @test_mm_ipcvtts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvttbf162ibs128
- return _mm_ipcvttbf16_epi8(__A);
+ return _mm_ipcvtts_bf16_epi8(__A);
}
-__m128i test_mm_mask_ipcvttbf16_epi8(__m128i __S, __mmask8 __A, __m128bh __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvttbf16_epi8(
+__m128i test_mm_mask_ipcvtts_bf16_epi8(__m128i __S, __mmask8 __A, __m128bh __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvtts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvttbf162ibs128
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
- return _mm_mask_ipcvttbf16_epi8(__S, __A, __B);
+ return _mm_mask_ipcvtts_bf16_epi8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvttbf16_epi8(__mmask8 __A, __m128bh __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvttbf16_epi8(
+__m128i test_mm_maskz_ipcvtts_bf16_epi8(__mmask8 __A, __m128bh __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvtts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvttbf162ibs128
// CHECK: zeroinitializer
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
- return _mm_maskz_ipcvttbf16_epi8(__A, __B);
+ return _mm_maskz_ipcvtts_bf16_epi8(__A, __B);
}
-__m256i test_mm256_ipcvttbf16_epi8(__m256bh __A) {
- // CHECK-LABEL: @test_mm256_ipcvttbf16_epi8(
+__m256i test_mm256_ipcvtts_bf16_epi8(__m256bh __A) {
+ // CHECK-LABEL: @test_mm256_ipcvtts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvttbf162ibs256
- return _mm256_ipcvttbf16_epi8(__A);
+ return _mm256_ipcvtts_bf16_epi8(__A);
}
-__m256i test_mm256_mask_ipcvttbf16_epi8(__m256i __S, __mmask16 __A, __m256bh __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvttbf16_epi8(
+__m256i test_mm256_mask_ipcvtts_bf16_epi8(__m256i __S, __mmask16 __A, __m256bh __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvtts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvttbf162ibs256
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
- return _mm256_mask_ipcvttbf16_epi8(__S, __A, __B);
+ return _mm256_mask_ipcvtts_bf16_epi8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvttbf16_epi8(__mmask16 __A, __m256bh __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvttbf16_epi8(
+__m256i test_mm256_maskz_ipcvtts_bf16_epi8(__mmask16 __A, __m256bh __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvtts_bf16_epi8(
// CHECK: @llvm.x86.avx10.vcvttbf162ibs256
// CHECK: zeroinitializer
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
- return _mm256_maskz_ipcvttbf16_epi8(__A, __B);
+ return _mm256_maskz_ipcvtts_bf16_epi8(__A, __B);
}
-__m128i test_mm_ipcvttbf16_epu8(__m128bh __A) {
- // CHECK-LABEL: @test_mm_ipcvttbf16_epu8(
+__m128i test_mm_ipcvtts_bf16_epu8(__m128bh __A) {
+ // CHECK-LABEL: @test_mm_ipcvtts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvttbf162iubs128
- return _mm_ipcvttbf16_epu8(__A);
+ return _mm_ipcvtts_bf16_epu8(__A);
}
-__m128i test_mm_mask_ipcvttbf16_epu8(__m128i __S, __mmask8 __A, __m128bh __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvttbf16_epu8(
+__m128i test_mm_mask_ipcvtts_bf16_epu8(__m128i __S, __mmask8 __A, __m128bh __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvtts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvttbf162iubs128
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
- return _mm_mask_ipcvttbf16_epu8(__S, __A, __B);
+ return _mm_mask_ipcvtts_bf16_epu8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvttbf16_epu8(__mmask8 __A, __m128bh __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvttbf16_epu8(
+__m128i test_mm_maskz_ipcvtts_bf16_epu8(__mmask8 __A, __m128bh __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvtts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvttbf162iubs128
// CHECK: zeroinitializer
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
- return _mm_maskz_ipcvttbf16_epu8(__A, __B);
+ return _mm_maskz_ipcvtts_bf16_epu8(__A, __B);
}
-__m256i test_mm256_ipcvttbf16_epu8(__m256bh __A) {
- // CHECK-LABEL: @test_mm256_ipcvttbf16_epu8(
+__m256i test_mm256_ipcvtts_bf16_epu8(__m256bh __A) {
+ // CHECK-LABEL: @test_mm256_ipcvtts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvttbf162iubs256
- return _mm256_ipcvttbf16_epu8(__A);
+ return _mm256_ipcvtts_bf16_epu8(__A);
}
-__m256i test_mm256_mask_ipcvttbf16_epu8(__m256i __S, __mmask16 __A, __m256bh __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvttbf16_epu8(
+__m256i test_mm256_mask_ipcvtts_bf16_epu8(__m256i __S, __mmask16 __A, __m256bh __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvtts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvttbf162iubs256
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
- return _mm256_mask_ipcvttbf16_epu8(__S, __A, __B);
+ return _mm256_mask_ipcvtts_bf16_epu8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvttbf16_epu8(__mmask16 __A, __m256bh __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvttbf16_epu8(
+__m256i test_mm256_maskz_ipcvtts_bf16_epu8(__mmask16 __A, __m256bh __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvtts_bf16_epu8(
// CHECK: @llvm.x86.avx10.vcvttbf162iubs256
// CHECK: zeroinitializer
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
- return _mm256_maskz_ipcvttbf16_epu8(__A, __B);
+ return _mm256_maskz_ipcvtts_bf16_epu8(__A, __B);
}
-__m128i test_mm_ipcvttph_epi8(__m128h __A) {
- // CHECK-LABEL: @test_mm_ipcvttph_epi8(
+__m128i test_mm_ipcvtts_ph_epi8(__m128h __A) {
+ // CHECK-LABEL: @test_mm_ipcvtts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs128
- return _mm_ipcvttph_epi8(__A);
+ return _mm_ipcvtts_ph_epi8(__A);
}
-__m128i test_mm_mask_ipcvttph_epi8(__m128i __S, __mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvttph_epi8(
+__m128i test_mm_mask_ipcvtts_ph_epi8(__m128i __S, __mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvtts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs128
- return _mm_mask_ipcvttph_epi8(__S, __A, __B);
+ return _mm_mask_ipcvtts_ph_epi8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvttph_epi8(__mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvttph_epi8(
+__m128i test_mm_maskz_ipcvtts_ph_epi8(__mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvtts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs128
- return _mm_maskz_ipcvttph_epi8(__A, __B);
-}
-
-__m256i test_mm256_ipcvttph_epi8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_ipcvttph_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvttph2ibs256
- return _mm256_ipcvttph_epi8(__A);
-}
-
-__m256i test_mm256_mask_ipcvttph_epi8(__m256i __S, __mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvttph_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvttph2ibs256
- return _mm256_mask_ipcvttph_epi8(__S, __A, __B);
+ return _mm_maskz_ipcvtts_ph_epi8(__A, __B);
}
-__m256i test_mm256_maskz_ipcvttph_epi8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvttph_epi8(
+__m256i test_mm256_ipcvtts_ph_epi8(__m256h __A) {
+ // CHECK-LABEL: @test_mm256_ipcvtts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs256
- return _mm256_maskz_ipcvttph_epi8(__A, __B);
+ return _mm256_ipcvtts_ph_epi8(__A);
}
-__m256i test_mm256_ipcvtt_roundph_epi8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_ipcvtt_roundph_epi8(
+__m256i test_mm256_mask_ipcvtts_ph_epi8(__m256i __S, __mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvtts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs256
- return _mm256_ipcvtt_roundph_epi8(__A, _MM_FROUND_NO_EXC);
+ return _mm256_mask_ipcvtts_ph_epi8(__S, __A, __B);
}
-__m256i test_mm256_mask_ipcvtt_roundph_epi8(__m256i __S, __mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtt_roundph_epi8(
+__m256i test_mm256_maskz_ipcvtts_ph_epi8(__mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvtts_ph_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2ibs256
- return _mm256_mask_ipcvtt_roundph_epi8(__S, __A, __B, _MM_FROUND_NO_EXC);
+ return _mm256_maskz_ipcvtts_ph_epi8(__A, __B);
}
-__m256i test_mm256_maskz_ipcvtt_roundph_epi8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtt_roundph_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvttph2ibs256
- return _mm256_maskz_ipcvtt_roundph_epi8(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm_ipcvttph_epu8(__m128h __A) {
- // CHECK-LABEL: @test_mm_ipcvttph_epu8(
+__m128i test_mm_ipcvtts_ph_epu8(__m128h __A) {
+ // CHECK-LABEL: @test_mm_ipcvtts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs128
- return _mm_ipcvttph_epu8(__A);
+ return _mm_ipcvtts_ph_epu8(__A);
}
-__m128i test_mm_mask_ipcvttph_epu8(__m128i __S, __mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvttph_epu8(
+__m128i test_mm_mask_ipcvtts_ph_epu8(__m128i __S, __mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvtts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs128
- return _mm_mask_ipcvttph_epu8(__S, __A, __B);
+ return _mm_mask_ipcvtts_ph_epu8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvttph_epu8(__mmask8 __A, __m128h __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvttph_epu8(
+__m128i test_mm_maskz_ipcvtts_ph_epu8(__mmask8 __A, __m128h __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvtts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs128
- return _mm_maskz_ipcvttph_epu8(__A, __B);
-}
-
-__m256i test_mm256_ipcvttph_epu8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_ipcvttph_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvttph2iubs256
- return _mm256_ipcvttph_epu8(__A);
-}
-
-__m256i test_mm256_mask_ipcvttph_epu8(__m256i __S, __mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvttph_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvttph2iubs256
- return _mm256_mask_ipcvttph_epu8(__S, __A, __B);
+ return _mm_maskz_ipcvtts_ph_epu8(__A, __B);
}
-__m256i test_mm256_maskz_ipcvttph_epu8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvttph_epu8(
+__m256i test_mm256_ipcvtts_ph_epu8(__m256h __A) {
+ // CHECK-LABEL: @test_mm256_ipcvtts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs256
- return _mm256_maskz_ipcvttph_epu8(__A, __B);
+ return _mm256_ipcvtts_ph_epu8(__A);
}
-__m256i test_mm256_ipcvtt_roundph_epu8(__m256h __A) {
- // CHECK-LABEL: @test_mm256_ipcvtt_roundph_epu8(
+__m256i test_mm256_mask_ipcvtts_ph_epu8(__m256i __S, __mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvtts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs256
- return _mm256_ipcvtt_roundph_epu8(__A, _MM_FROUND_NO_EXC);
+ return _mm256_mask_ipcvtts_ph_epu8(__S, __A, __B);
}
-__m256i test_mm256_mask_ipcvtt_roundph_epu8(__m256i __S, __mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtt_roundph_epu8(
+__m256i test_mm256_maskz_ipcvtts_ph_epu8(__mmask16 __A, __m256h __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvtts_ph_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttph2iubs256
- return _mm256_mask_ipcvtt_roundph_epu8(__S, __A, __B, _MM_FROUND_NO_EXC);
+ return _mm256_maskz_ipcvtts_ph_epu8(__A, __B);
}
-__m256i test_mm256_maskz_ipcvtt_roundph_epu8(__mmask16 __A, __m256h __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtt_roundph_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvttph2iubs256
- return _mm256_maskz_ipcvtt_roundph_epu8(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm_ipcvttps_epi8(__m128 __A) {
- // CHECK-LABEL: @test_mm_ipcvttps_epi8(
+__m128i test_mm_ipcvtts_ps_epi8(__m128 __A) {
+ // CHECK-LABEL: @test_mm_ipcvtts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs128
- return _mm_ipcvttps_epi8(__A);
+ return _mm_ipcvtts_ps_epi8(__A);
}
-__m128i test_mm_mask_ipcvttps_epi8(__m128i __S, __mmask8 __A, __m128 __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvttps_epi8(
+__m128i test_mm_mask_ipcvtts_ps_epi8(__m128i __S, __mmask8 __A, __m128 __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvtts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs128
- return _mm_mask_ipcvttps_epi8(__S, __A, __B);
+ return _mm_mask_ipcvtts_ps_epi8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvttps_epi8(__mmask8 __A, __m128 __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvttps_epi8(
+__m128i test_mm_maskz_ipcvtts_ps_epi8(__mmask8 __A, __m128 __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvtts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs128
- return _mm_maskz_ipcvttps_epi8(__A, __B);
+ return _mm_maskz_ipcvtts_ps_epi8(__A, __B);
}
-__m256i test_mm256_ipcvttps_epi8(__m256 __A) {
- // CHECK-LABEL: @test_mm256_ipcvttps_epi8(
+__m256i test_mm256_ipcvtts_ps_epi8(__m256 __A) {
+ // CHECK-LABEL: @test_mm256_ipcvtts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs256
- return _mm256_ipcvttps_epi8(__A);
+ return _mm256_ipcvtts_ps_epi8(__A);
}
-__m256i test_mm256_mask_ipcvttps_epi8(__m256i __S, __mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvttps_epi8(
+__m256i test_mm256_mask_ipcvtts_ps_epi8(__m256i __S, __mmask8 __A, __m256 __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvtts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs256
- return _mm256_mask_ipcvttps_epi8(__S, __A, __B);
+ return _mm256_mask_ipcvtts_ps_epi8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvttps_epi8(__mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvttps_epi8(
+__m256i test_mm256_maskz_ipcvtts_ps_epi8(__mmask8 __A, __m256 __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvtts_ps_epi8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2ibs256
- return _mm256_maskz_ipcvttps_epi8(__A, __B);
+ return _mm256_maskz_ipcvtts_ps_epi8(__A, __B);
}
-__m256i test_mm256_ipcvtt_roundps_epi8(__m256 __A) {
- // CHECK-LABEL: @test_mm256_ipcvtt_roundps_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvttps2ibs256
- return _mm256_ipcvtt_roundps_epi8(__A, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_mask_ipcvtt_roundps_epi8(__m256i __S, __mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtt_roundps_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvttps2ibs256
- return _mm256_mask_ipcvtt_roundps_epi8(__S, __A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m256i test_mm256_maskz_ipcvtt_roundps_epi8(__mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtt_roundps_epi8(
- // CHECK: @llvm.x86.avx10.mask.vcvttps2ibs256
- return _mm256_maskz_ipcvtt_roundps_epi8(__A, __B, _MM_FROUND_NO_EXC);
-}
-
-__m128i test_mm_ipcvttps_epu8(__m128 __A) {
- // CHECK-LABEL: @test_mm_ipcvttps_epu8(
+__m128i test_mm_ipcvtts_ps_epu8(__m128 __A) {
+ // CHECK-LABEL: @test_mm_ipcvtts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs128
- return _mm_ipcvttps_epu8(__A);
+ return _mm_ipcvtts_ps_epu8(__A);
}
-__m128i test_mm_mask_ipcvttps_epu8(__m128i __S, __mmask8 __A, __m128 __B) {
- // CHECK-LABEL: @test_mm_mask_ipcvttps_epu8(
+__m128i test_mm_mask_ipcvtts_ps_epu8(__m128i __S, __mmask8 __A, __m128 __B) {
+ // CHECK-LABEL: @test_mm_mask_ipcvtts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs128
- return _mm_mask_ipcvttps_epu8(__S, __A, __B);
+ return _mm_mask_ipcvtts_ps_epu8(__S, __A, __B);
}
-__m128i test_mm_maskz_ipcvttps_epu8(__mmask8 __A, __m128 __B) {
- // CHECK-LABEL: @test_mm_maskz_ipcvttps_epu8(
+__m128i test_mm_maskz_ipcvtts_ps_epu8(__mmask8 __A, __m128 __B) {
+ // CHECK-LABEL: @test_mm_maskz_ipcvtts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs128
- return _mm_maskz_ipcvttps_epu8(__A, __B);
-}
-
-__m256i test_mm256_ipcvttps_epu8(__m256 __A) {
- // CHECK-LABEL: @test_mm256_ipcvttps_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvttps2iubs256
- return _mm256_ipcvttps_epu8(__A);
-}
-
-__m256i test_mm256_mask_ipcvttps_epu8(__m256i __S, __mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvttps_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvttps2iubs256
- return _mm256_mask_ipcvttps_epu8(__S, __A, __B);
-}
-
-__m256i test_mm256_maskz_ipcvttps_epu8(__mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvttps_epu8(
- // CHECK: @llvm.x86.avx10.mask.vcvttps2iubs256
- return _mm256_maskz_ipcvttps_epu8(__A, __B);
+ return _mm_maskz_ipcvtts_ps_epu8(__A, __B);
}
-__m256i test_mm256_ipcvtt_roundps_epu8(__m256 __A) {
- // CHECK-LABEL: @test_mm256_ipcvtt_roundps_epu8(
+__m256i test_mm256_ipcvtts_ps_epu8(__m256 __A) {
+ // CHECK-LABEL: @test_mm256_ipcvtts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs256
- return _mm256_ipcvtt_roundps_epu8(__A, _MM_FROUND_NO_EXC);
+ return _mm256_ipcvtts_ps_epu8(__A);
}
-__m256i test_mm256_mask_ipcvtt_roundps_epu8(__m256i __S, __mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_mask_ipcvtt_roundps_epu8(
+__m256i test_mm256_mask_ipcvtts_ps_epu8(__m256i __S, __mmask8 __A, __m256 __B) {
+ // CHECK-LABEL: @test_mm256_mask_ipcvtts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs256
- return _mm256_mask_ipcvtt_roundps_epu8(__S, __A, __B, _MM_FROUND_NO_EXC);
+ return _mm256_mask_ipcvtts_ps_epu8(__S, __A, __B);
}
-__m256i test_mm256_maskz_ipcvtt_roundps_epu8(__mmask8 __A, __m256 __B) {
- // CHECK-LABEL: @test_mm256_maskz_ipcvtt_roundps_epu8(
+__m256i test_mm256_maskz_ipcvtts_ps_epu8(__mmask8 __A, __m256 __B) {
+ // CHECK-LABEL: @test_mm256_maskz_ipcvtts_ps_epu8(
// CHECK: @llvm.x86.avx10.mask.vcvttps2iubs256
- return _mm256_maskz_ipcvtt_roundps_epu8(__A, __B, _MM_FROUND_NO_EXC);
+ return _mm256_maskz_ipcvtts_ps_epu8(__A, __B);
}
diff --git a/clang/test/CodeGen/X86/avx10_2satcvtds-builtins-errors.c b/clang/test/CodeGen/X86/avx10_2satcvtds-builtins-errors.c
deleted file mode 100644
index f32dfba60132d..0000000000000
--- a/clang/test/CodeGen/X86/avx10_2satcvtds-builtins-errors.c
+++ /dev/null
@@ -1,57 +0,0 @@
-// RUN: %clang_cc1 -flax-vector-conversions=none -ffreestanding %s -triple=i386-unknown-unknown -target-feature +avx10.2-256 -Wall -Werror -verify
-
-unsigned long long test_mm_cvttssd(unsigned long long __A) {
- return _mm_cvttssd(__A); // expected-error {{call to undeclared function '_mm_cvttssd'}}
-}
-
-unsigned long long test_mm_cvttsss(unsigned long long __A) {
- return _mm_cvttsss(__A); // expected-error {{call to undeclared function '_mm_cvttsss'}}
-}
-
-#include <immintrin.h>
-#include <stddef.h>
-
-__m128i test_mm256_cvtts_roundpd_epi32(__m256d A) {
- return _mm256_cvtts_roundpd_epi32(A, 22); // expected-error {{invalid rounding argument}}
-}
-__m128i test_mm256_mask_cvtts_roundpd_epi32(__m128i W, __mmask8 U, __m256d A) {
- return _mm256_mask_cvtts_roundpd_epi32(W, U, A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m128i test_mm256_maskz_cvtts_roundpd_epi32(__mmask8 U, __m256d A) {
- return _mm256_maskz_cvtts_roundpd_epi32(U, A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m128i test_mm256_cvtts_roundpd_epu32(__m256d A) {
- return _mm256_cvtts_roundpd_epu32(A, 22); // expected-error {{invalid rounding argument}}
-}
-__m128i test_mm256_mask_cvtts_roundpd_epu32(__m128i W, __mmask8 U, __m256d A) {
- return _mm256_mask_cvtts_roundpd_epu32(W, U, A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m128i test_mm256_maskz_cvtts_roundpd_epu32(__mmask8 U, __m256d A) {
- return _mm256_maskz_cvtts_roundpd_epu32(U, A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_cvtts_roundps_epi32(__m256 A) {
- return _mm256_cvtts_roundps_epi32(A, 22); // expected-error {{invalid rounding argument}}
-}
-__m256i test_mm256_mask_cvtts_roundps_epi32(__m256i W, __mmask8 U, __m256 A) {
- return _mm256_mask_cvtts_roundps_epi32(W, U, A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_cvtts_roundps_epi32(__mmask8 U, __m256 A) {
- return _mm256_maskz_cvtts_roundps_epi32(U, A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_cvtts_roundps_epu32(__m256 A) {
- return _mm256_cvtts_roundps_epu32(A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_mask_cvtts_roundps_epu32(__m256i W, __mmask8 U, __m256 A) {
- return _mm256_mask_cvtts_roundps_epu32(W, U, A, 22); // expected-error {{invalid rounding argument}}
-}
-
-__m256i test_mm256_maskz_cvtts_roundps_epu32(__mmask8 U, __m256 A) {
- return _mm256_maskz_cvtts_roundps_epu32(U, A, 22); // expected-error {{invalid rounding argument}}
-}
diff --git a/clang/test/CodeGen/X86/avx10_2satcvtds-builtins-x64.c b/clang/test/CodeGen/X86/avx10_2satcvtds-builtins-x64.c
index 00384731a51f7..fe6755cc05ae1 100644
--- a/clang/test/CodeGen/X86/avx10_2satcvtds-builtins-x64.c
+++ b/clang/test/CodeGen/X86/avx10_2satcvtds-builtins-x64.c
@@ -5,258 +5,186 @@
// scalar
-int test_mm_cvttssd_i32(__m128d __A) {
- // CHECK-LABEL: @test_mm_cvttssd_i32
+int test_mm_cvtts_sd_i32(__m128d __A) {
+ // CHECK-LABEL: @test_mm_cvtts_sd_i32
// CHECK: @llvm.x86.avx10.vcvttsd2sis
return _mm_cvtts_roundsd_i32(__A, _MM_FROUND_NO_EXC);
}
-int test_mm_cvttssd_si32(__m128d __A) {
- // CHECK-LABEL: @test_mm_cvttssd_si32(
+int test_mm_cvtts_sd_si32(__m128d __A) {
+ // CHECK-LABEL: @test_mm_cvtts_sd_si32(
// CHECK: @llvm.x86.avx10.vcvttsd2sis(<2 x double>
return _mm_cvtts_roundsd_si32(__A, _MM_FROUND_NO_EXC);
}
-unsigned test_mm_cvttssd_u32(__m128d __A) {
- // CHECK-LABEL: @test_mm_cvttssd_u32(
+unsigned test_mm_cvtts_sd_u32(__m128d __A) {
+ // CHECK-LABEL: @test_mm_cvtts_sd_u32(
// CHECK: @llvm.x86.avx10.vcvttsd2usis(<2 x double>
return _mm_cvtts_roundsd_u32(__A, _MM_FROUND_NO_EXC);
}
-int test_mm_cvttsss_i32(__m128 __A) {
- // CHECK-LABEL: @test_mm_cvttsss_i32(
+int test_mm_cvtts_ss_i32(__m128 __A) {
+ // CHECK-LABEL: @test_mm_cvtts_ss_i32(
// CHECK: @llvm.x86.avx10.vcvttss2sis(<4 x float>
return _mm_cvtts_roundss_i32(__A, _MM_FROUND_NO_EXC);
}
-int test_mm_cvttsss_si32(__m128 __A) {
- // CHECK-LABEL: @test_mm_cvttsss_si32(
+int test_mm_cvtts_ss_si32(__m128 __A) {
+ // CHECK-LABEL: @test_mm_cvtts_ss_si32(
// CHECK: @llvm.x86.avx10.vcvttss2sis(<4 x float>
return _mm_cvtts_roundss_si32(__A, _MM_FROUND_NO_EXC);
}
-unsigned test_mm_cvttsss_u32(__m128 __A) {
- // CHECK-LABEL: @test_mm_cvttsss_u32(
+unsigned test_mm_cvtts_ss_u32(__m128 __A) {
+ // CHECK-LABEL: @test_mm_cvtts_ss_u32(
// CHECK: @llvm.x86.avx10.vcvttss2usis(<4 x float>
return _mm_cvtts_roundss_u32(__A, _MM_FROUND_NO_EXC);
}
// vector
// 128 bit
-__m128i test_mm_cvttspd_epi64(__m128d A){
- // CHECK-LABEL: @test_mm_cvttspd_epi64
+__m128i test_mm_cvtts_pd_epi64(__m128d A){
+ // CHECK-LABEL: @test_mm_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.128(<2 x double>
- return _mm_cvttspd_epi64(A);
+ return _mm_cvtts_pd_epi64(A);
}
-__m128i test_mm_mask_cvttspd_epi64(__m128i W, __mmask8 U, __m128d A){
- // CHECK-LABEL: @test_mm_mask_cvttspd_epi64
+__m128i test_mm_mask_cvtts_pd_epi64(__m128i W, __mmask8 U, __m128d A){
+ // CHECK-LABEL: @test_mm_mask_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.128(<2 x double>
- return _mm_mask_cvttspd_epi64(W, U, A);
+ return _mm_mask_cvtts_pd_epi64(W, U, A);
}
-__m128i test_mm_maskz_cvttspd_epi64(__mmask8 U,__m128d A){
- // CHECK-LABEL: @test_mm_maskz_cvttspd_epi64
+__m128i test_mm_maskz_cvtts_pd_epi64(__mmask8 U,__m128d A){
+ // CHECK-LABEL: @test_mm_maskz_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.128(<2 x double>
- return _mm_maskz_cvttspd_epi64(U, A);
+ return _mm_maskz_cvtts_pd_epi64(U, A);
}
-__m128i test_mm_cvttspd_epu64(__m128d A){
- // CHECK-LABEL: @test_mm_cvttspd_epu64
+__m128i test_mm_cvtts_pd_epu64(__m128d A){
+ // CHECK-LABEL: @test_mm_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.128(<2 x double>
- return _mm_cvttspd_epu64(A);
+ return _mm_cvtts_pd_epu64(A);
}
-__m128i test_mm_mask_cvttspd_epu64(__m128i W, __mmask8 U, __m128d A){
- // CHECK-LABEL: @test_mm_mask_cvttspd_epu64
+__m128i test_mm_mask_cvtts_pd_epu64(__m128i W, __mmask8 U, __m128d A){
+ // CHECK-LABEL: @test_mm_mask_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.128(<2 x double>
- return _mm_mask_cvttspd_epu64(W, U, A);
+ return _mm_mask_cvtts_pd_epu64(W, U, A);
}
-__m128i test_mm_maskz_cvttspd_epu64(__mmask8 U,__m128d A){
- // CHECK-LABEL: @test_mm_maskz_cvttspd_epu64
+__m128i test_mm_maskz_cvtts_pd_epu64(__mmask8 U,__m128d A){
+ // CHECK-LABEL: @test_mm_maskz_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.128(<2 x double>
- return _mm_maskz_cvttspd_epu64(U, A);
+ return _mm_maskz_cvtts_pd_epu64(U, A);
}
// 256 bit
-__m256i test_mm256_cvttspd_epi64(__m256d A){
-// CHECK-LABEL: @test_mm256_cvttspd_epi64
+__m256i test_mm256_cvtts_pd_epi64(__m256d A){
+// CHECK-LABEL: @test_mm256_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.256(<4 x double>
- return _mm256_cvttspd_epi64(A);
+ return _mm256_cvtts_pd_epi64(A);
}
-__m256i test_mm256_mask_cvttspd_epi64(__m256i W,__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_mask_cvttspd_epi64
+__m256i test_mm256_mask_cvtts_pd_epi64(__m256i W,__mmask8 U, __m256d A){
+// CHECK-LABEL: @test_mm256_mask_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.256(<4 x double>
- return _mm256_mask_cvttspd_epi64(W,U, A);
+ return _mm256_mask_cvtts_pd_epi64(W,U, A);
}
-__m256i test_mm256_maskz_cvttspd_epi64(__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_maskz_cvttspd_epi64
+__m256i test_mm256_maskz_cvtts_pd_epi64(__mmask8 U, __m256d A){
+// CHECK-LABEL: @test_mm256_maskz_cvtts_pd_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.256(<4 x double>
- return _mm256_maskz_cvttspd_epi64(U, A);
+ return _mm256_maskz_cvtts_pd_epi64(U, A);
}
-__m256i test_mm256_cvtts_roundpd_epi64(__m256d A){
-// CHECK-LABEL: @test_mm256_cvtts_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.256(<4 x double>
- return _mm256_cvtts_roundpd_epi64(A,_MM_FROUND_NEARBYINT );
-}
-
-__m256i test_mm256_mask_cvtts_roundpd_epi64(__m256i W,__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_mask_cvtts_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.256(<4 x double>
- return _mm256_mask_cvtts_roundpd_epi64(W,U,A,_MM_FROUND_NEARBYINT );
-}
-
-__m256i test_mm256_maskz_cvtts_roundpd_epi64(__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_maskz_cvtts_roundpd_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2qqs.round.256(<4 x double>
- return _mm256_maskz_cvtts_roundpd_epi64(U,A,_MM_FROUND_NEARBYINT );
-}
-
-__m256i test_mm256_cvttspd_epu64(__m256d A){
-// CHECK-LABEL: @test_mm256_cvttspd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.256(<4 x double>
- return _mm256_cvttspd_epu64(A);
-}
-
-__m256i test_mm256_mask_cvttspd_epu64(__m256i W,__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_mask_cvttspd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.256(<4 x double>
- return _mm256_mask_cvttspd_epu64(W,U, A);
-}
-
-__m256i test_mm256_maskz_cvttspd_epu64(__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_maskz_cvttspd_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.256(<4 x double>
- return _mm256_maskz_cvttspd_epu64(U, A);
-}
-
-__m256i test_mm256_cvtts_roundpd_epu64(__m256d A){
-// CHECK-LABEL: @test_mm256_cvtts_roundpd_epu64
+__m256i test_mm256_cvtts_pd_epu64(__m256d A){
+// CHECK-LABEL: @test_mm256_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.256(<4 x double>
- return _mm256_cvtts_roundpd_epu64(A,_MM_FROUND_NEARBYINT );
+ return _mm256_cvtts_pd_epu64(A);
}
-__m256i test_mm256_mask_cvtts_roundpd_epu64(__m256i W,__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_mask_cvtts_roundpd_epu64
+__m256i test_mm256_mask_cvtts_pd_epu64(__m256i W,__mmask8 U, __m256d A){
+// CHECK-LABEL: @test_mm256_mask_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.256(<4 x double>
- return _mm256_mask_cvtts_roundpd_epu64(W,U,A,_MM_FROUND_NEARBYINT );
+ return _mm256_mask_cvtts_pd_epu64(W,U, A);
}
-__m256i test_mm256_maskz_cvtts_roundpd_epu64(__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_maskz_cvtts_roundpd_epu64
+__m256i test_mm256_maskz_cvtts_pd_epu64(__mmask8 U, __m256d A){
+// CHECK-LABEL: @test_mm256_maskz_cvtts_pd_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttpd2uqqs.round.256(<4 x double>
- return _mm256_maskz_cvtts_roundpd_epu64(U,A,_MM_FROUND_NEARBYINT );
+ return _mm256_maskz_cvtts_pd_epu64(U, A);
}
// 128 bit
-__m128i test_mm_cvttsps_epi64(__m128 A){
- // CHECK-LABEL: @test_mm_cvttsps_epi64
+__m128i test_mm_cvtts_ps_epi64(__m128 A){
+ // CHECK-LABEL: @test_mm_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.128(<4 x float>
- return _mm_cvttsps_epi64(A);
+ return _mm_cvtts_ps_epi64(A);
}
-__m128i test_mm_mask_cvttsps_epi64(__m128i W, __mmask8 U, __m128 A){
- // CHECK-LABEL: @test_mm_mask_cvttsps_epi64
+__m128i test_mm_mask_cvtts_ps_epi64(__m128i W, __mmask8 U, __m128 A){
+ // CHECK-LABEL: @test_mm_mask_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.128(<4 x float>
- return _mm_mask_cvttsps_epi64(W, U, A);
+ return _mm_mask_cvtts_ps_epi64(W, U, A);
}
-__m128i test_mm_maskz_cvttsps_epi64(__mmask8 U,__m128 A){
- // CHECK-LABEL: @test_mm_maskz_cvttsps_epi64
+__m128i test_mm_maskz_cvtts_ps_epi64(__mmask8 U,__m128 A){
+ // CHECK-LABEL: @test_mm_maskz_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.128(<4 x float>
- return _mm_maskz_cvttsps_epi64(U, A);
+ return _mm_maskz_cvtts_ps_epi64(U, A);
}
-__m128i test_mm_cvttsps_epu64(__m128 A){
- // CHECK-LABEL: @test_mm_cvttsps_epu64
+__m128i test_mm_cvtts_ps_epu64(__m128 A){
+ // CHECK-LABEL: @test_mm_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.128(<4 x float>
- return _mm_cvttsps_epu64(A);
+ return _mm_cvtts_ps_epu64(A);
}
-__m128i test_mm_mask_cvttsps_epu64(__m128i W, __mmask8 U, __m128 A){
- // CHECK-LABEL: @test_mm_mask_cvttsps_epu64
+__m128i test_mm_mask_cvtts_ps_epu64(__m128i W, __mmask8 U, __m128 A){
+ // CHECK-LABEL: @test_mm_mask_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.128(<4 x float>
- return _mm_mask_cvttsps_epu64(W, U, A);
+ return _mm_mask_cvtts_ps_epu64(W, U, A);
}
-__m128i test_mm_maskz_cvttsps_epu64(__mmask8 U,__m128 A){
- // CHECK-LABEL: @test_mm_maskz_cvttsps_epu64
+__m128i test_mm_maskz_cvtts_ps_epu64(__mmask8 U,__m128 A){
+ // CHECK-LABEL: @test_mm_maskz_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.128(<4 x float>
- return _mm_maskz_cvttsps_epu64(U, A);
+ return _mm_maskz_cvtts_ps_epu64(U, A);
}
-__m256i test_mm256_cvttsps_epi64(__m128 A){
-// CHECK-LABEL: @test_mm256_cvttsps_epi64
+__m256i test_mm256_cvtts_ps_epi64(__m128 A){
+// CHECK-LABEL: @test_mm256_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.256(<4 x float>
- return _mm256_cvttsps_epi64(A);
+ return _mm256_cvtts_ps_epi64(A);
}
-__m256i test_mm256_mask_cvttsps_epi64(__m256i W,__mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm256_mask_cvttsps_epi64
+__m256i test_mm256_mask_cvtts_ps_epi64(__m256i W,__mmask8 U, __m128 A){
+// CHECK-LABEL: @test_mm256_mask_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.256(<4 x float>
- return _mm256_mask_cvttsps_epi64(W,U, A);
+ return _mm256_mask_cvtts_ps_epi64(W,U, A);
}
-__m256i test_mm256_maskz_cvttsps_epi64(__mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm256_maskz_cvttsps_epi64
+__m256i test_mm256_maskz_cvtts_ps_epi64(__mmask8 U, __m128 A){
+// CHECK-LABEL: @test_mm256_maskz_cvtts_ps_epi64
// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.256(<4 x float>
- return _mm256_maskz_cvttsps_epi64(U, A);
-}
-
-__m256i test_mm256_cvtts_roundps_epi64(__m128 A){
-// CHECK-LABEL: @test_mm256_cvtts_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.256(<4 x float>
- return _mm256_cvtts_roundps_epi64(A, _MM_FROUND_NEARBYINT );
-}
-
-__m256i test_mm256_mask_cvtts_roundps_epi64(__m256i W,__mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm256_mask_cvtts_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.256(<4 x float>
- return _mm256_mask_cvtts_roundps_epi64(W,U,A,_MM_FROUND_NEARBYINT );
-}
-
-__m256i test_mm256_maskz_cvtts_roundps_epi64(__mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm256_maskz_cvtts_roundps_epi64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2qqs.round.256(<4 x float>
- return _mm256_maskz_cvtts_roundps_epi64(U,A,_MM_FROUND_NEARBYINT );
-}
-
-__m256i test_mm256_cvttsps_epu64(__m128 A){
-// CHECK-LABEL: @test_mm256_cvttsps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.256(<4 x float>
- return _mm256_cvttsps_epu64(A);
-}
-
-__m256i test_mm256_mask_cvttsps_epu64(__m256i W,__mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm256_mask_cvttsps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.256(<4 x float>
- return _mm256_mask_cvttsps_epu64(W,U, A);
-}
-
-__m256i test_mm256_maskz_cvttsps_epu64(__mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm256_maskz_cvttsps_epu64
-// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.256(<4 x float>
- return _mm256_maskz_cvttsps_epu64(U, A);
+ return _mm256_maskz_cvtts_ps_epi64(U, A);
}
-__m256i test_mm256_cvtts_roundps_epu64(__m128 A){
-// CHECK-LABEL: @test_mm256_cvtts_roundps_epu64
+__m256i test_mm256_cvtts_ps_epu64(__m128 A){
+// CHECK-LABEL: @test_mm256_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.256(<4 x float>
- return _mm256_cvtts_roundps_epu64(A, _MM_FROUND_NEARBYINT );
+ return _mm256_cvtts_ps_epu64(A);
}
-__m256i test_mm256_mask_cvtts_roundps_epu64(__m256i W,__mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm256_mask_cvtts_roundps_epu64
+__m256i test_mm256_mask_cvtts_ps_epu64(__m256i W,__mmask8 U, __m128 A){
+// CHECK-LABEL: @test_mm256_mask_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.256(<4 x float>
- return _mm256_mask_cvtts_roundps_epu64(W,U,A,_MM_FROUND_NEARBYINT );
+ return _mm256_mask_cvtts_ps_epu64(W,U, A);
}
-__m256i test_mm256_maskz_cvtts_roundps_epu64(__mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm256_maskz_cvtts_roundps_epu64
+__m256i test_mm256_maskz_cvtts_ps_epu64(__mmask8 U, __m128 A){
+// CHECK-LABEL: @test_mm256_maskz_cvtts_ps_epu64
// CHECK: @llvm.x86.avx10.mask.vcvttps2uqqs.round.256(<4 x float>
- return _mm256_maskz_cvtts_roundps_epu64(U,A,_MM_FROUND_NEARBYINT );
+ return _mm256_maskz_cvtts_ps_epu64(U, A);
}
diff --git a/clang/test/CodeGen/X86/avx10_2satcvtds-builtins.c b/clang/test/CodeGen/X86/avx10_2satcvtds-builtins.c
index bb90f6a086fa2..b91af7073a55a 100644
--- a/clang/test/CodeGen/X86/avx10_2satcvtds-builtins.c
+++ b/clang/test/CodeGen/X86/avx10_2satcvtds-builtins.c
@@ -1,225 +1,150 @@
-// RUN: %clang_cc1 -flax-vector-conversions=none -ffreestanding %s -triple=i386 -target-feature +avx10.2-256 -emit-llvm -o - | FileCheck %s --check-prefixes=CHECK,X86
-// RUN: %clang_cc1 -flax-vector-conversions=none -ffreestanding %s -triple=x86_64 -target-feature +avx10.2-256 -emit-llvm -o - | FileCheck %s --check-prefixes=CHECK,X64
+// RUN: %clang_cc1 -flax-vector-conversions=none -ffreestanding %s -triple=i386 -target-feature +avx10.2-256 -emit-llvm -o - | FileCheck %s --check-prefixes=CHECK
+// RUN: %clang_cc1 -flax-vector-conversions=none -ffreestanding %s -triple=x86_64 -target-feature +avx10.2-256 -emit-llvm -o - | FileCheck %s --check-prefixes=CHECK
#include <immintrin.h>
#include <stddef.h>
-__m128i test_mm_cvttspd_epi32(__m128d A){
-// CHECK-LABEL: @test_mm_cvttspd_epi32
+__m128i test_mm_cvtts_pd_epi32(__m128d A){
+// CHECK-LABEL: @test_mm_cvtts_pd_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.128(<2 x double>
- return _mm_cvttspd_epi32(A);
+ return _mm_cvtts_pd_epi32(A);
}
-__m128i test_mm_mask_cvttspd_epi32(__m128i W, __mmask8 U, __m128d A){
-// CHECK-LABEL: @test_mm_mask_cvttspd_epi32
+__m128i test_mm_mask_cvtts_pd_epi32(__m128i W, __mmask8 U, __m128d A){
+// CHECK-LABEL: @test_mm_mask_cvtts_pd_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.128(<2 x double>
- return _mm_mask_cvttspd_epi32(W,U,A);
+ return _mm_mask_cvtts_pd_epi32(W,U,A);
}
-__m128i test_mm_maskz_cvttspd_epi32( __mmask8 U, __m128d A){
-// CHECK-LABEL: @test_mm_maskz_cvttspd_epi32(
+__m128i test_mm_maskz_cvtts_pd_epi32( __mmask8 U, __m128d A){
+// CHECK-LABEL: @test_mm_maskz_cvtts_pd_epi32(
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.128(<2 x double>
- return _mm_maskz_cvttspd_epi32(U,A);
+ return _mm_maskz_cvtts_pd_epi32(U,A);
}
-__m128i test_mm256_cvttspd_epi32(__m256d A){
-// CHECK-LABEL: @test_mm256_cvttspd_epi32
+__m128i test_mm256_cvtts_pd_epi32(__m256d A){
+// CHECK-LABEL: @test_mm256_cvtts_pd_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.256(<4 x double>
- return _mm256_cvttspd_epi32(A);
+ return _mm256_cvtts_pd_epi32(A);
}
-__m128i test_mm256_mask_cvttspd_epi32(__m128i W,__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_mask_cvttspd_epi32
+__m128i test_mm256_mask_cvtts_pd_epi32(__m128i W,__mmask8 U, __m256d A){
+// CHECK-LABEL: @test_mm256_mask_cvtts_pd_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.256(<4 x double>
- return _mm256_mask_cvttspd_epi32(W,U,A);
+ return _mm256_mask_cvtts_pd_epi32(W,U,A);
}
-__m128i test_mm256_maskz_cvttspd_epi32(__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_maskz_cvttspd_epi32
+__m128i test_mm256_maskz_cvtts_pd_epi32(__mmask8 U, __m256d A){
+// CHECK-LABEL: @test_mm256_maskz_cvtts_pd_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.256(<4 x double>
- return _mm256_maskz_cvttspd_epi32(U,A);
+ return _mm256_maskz_cvtts_pd_epi32(U,A);
}
-__m128i test_mm256_cvtts_roundpd_epi32(__m256d A){
-// CHECK-LABEL: @test_mm256_cvtts_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.256(<4 x double>
- return _mm256_cvtts_roundpd_epi32(A, _MM_FROUND_NEARBYINT);
-}
-
-__m128i test_mm256_mask_cvtts_roundpd_epi32(__m128i W,__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_mask_cvtts_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.256(<4 x double>
- return _mm256_mask_cvtts_roundpd_epi32(W,U,A,_MM_FROUND_NEARBYINT);
-}
-
-__m128i test_mm256_maskz_cvtts_roundpd_epi32(__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_maskz_cvtts_roundpd_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2dqs.round.256(<4 x double>
- return _mm256_maskz_cvtts_roundpd_epi32(U,A,_MM_FROUND_NEARBYINT);
-}
-
-__m128i test_mm_cvttspd_epu32(__m128d A){
-// CHECK-LABEL: @test_mm_cvttspd_epu32
+__m128i test_mm_cvtts_pd_epu32(__m128d A){
+// CHECK-LABEL: @test_mm_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.128(<2 x double>
- return _mm_cvttspd_epu32(A);
+ return _mm_cvtts_pd_epu32(A);
}
-__m128i test_mm_mask_cvttspd_epu32(__m128i W, __mmask8 U, __m128d A){
-// CHECK-LABEL: @test_mm_mask_cvttspd_epu32
+__m128i test_mm_mask_cvtts_pd_epu32(__m128i W, __mmask8 U, __m128d A){
+// CHECK-LABEL: @test_mm_mask_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.128(<2 x double>
- return _mm_mask_cvttspd_epu32(W,U,A);
+ return _mm_mask_cvtts_pd_epu32(W,U,A);
}
-__m128i test_mm_maskz_cvttspd_epu32( __mmask8 U, __m128d A){
-// CHECK-LABEL: @test_mm_maskz_cvttspd_epu32
+__m128i test_mm_maskz_cvtts_pd_epu32( __mmask8 U, __m128d A){
+// CHECK-LABEL: @test_mm_maskz_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.128(<2 x double>
- return _mm_maskz_cvttspd_epu32(U,A);
+ return _mm_maskz_cvtts_pd_epu32(U,A);
}
-__m128i test_mm256_cvttspd_epu32(__m256d A){
-// CHECK-LABEL: @test_mm256_cvttspd_epu32
+__m128i test_mm256_cvtts_pd_epu32(__m256d A){
+// CHECK-LABEL: @test_mm256_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.256(<4 x double>
- return _mm256_cvttspd_epu32(A);
+ return _mm256_cvtts_pd_epu32(A);
}
-__m128i test_mm256_mask_cvttspd_epu32(__m128i W,__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_mask_cvttspd_epu32
+__m128i test_mm256_mask_cvtts_pd_epu32(__m128i W,__mmask8 U, __m256d A){
+// CHECK-LABEL: @test_mm256_mask_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.256(<4 x double>
- return _mm256_mask_cvttspd_epu32(W,U,A);
+ return _mm256_mask_cvtts_pd_epu32(W,U,A);
}
-__m128i test_mm256_maskz_cvttspd_epu32(__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_maskz_cvttspd_epu32
+__m128i test_mm256_maskz_cvtts_pd_epu32(__mmask8 U, __m256d A){
+// CHECK-LABEL: @test_mm256_maskz_cvtts_pd_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.256(<4 x double>
- return _mm256_maskz_cvttspd_epu32(U,A);
+ return _mm256_maskz_cvtts_pd_epu32(U,A);
}
-__m128i test_mm256_cvtts_roundpd_epu32(__m256d A){
-// CHECK-LABEL: @test_mm256_cvtts_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.256(<4 x double>
- return _mm256_cvtts_roundpd_epu32(A, _MM_FROUND_NEARBYINT);
-}
-
-__m128i test_mm256_mask_cvtts_roundpd_epu32(__m128i W,__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_mask_cvtts_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.256(<4 x double>
- return _mm256_mask_cvtts_roundpd_epu32(W,U,A,_MM_FROUND_NEARBYINT);
-}
-
-__m128i test_mm256_maskz_cvtts_roundpd_epu32(__mmask8 U, __m256d A){
-// CHECK-LABEL: @test_mm256_maskz_cvtts_roundpd_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttpd2udqs.round.256(<4 x double>
- return _mm256_maskz_cvtts_roundpd_epu32(U,A,_MM_FROUND_NEARBYINT);
-}
-
-__m128i test_mm_cvttsps_epi32(__m128 A){
-// CHECK-LABEL: @test_mm_cvttsps_epi32
+__m128i test_mm_cvtts_ps_epi32(__m128 A){
+// CHECK-LABEL: @test_mm_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.128(<4 x float>
- return _mm_cvttsps_epi32(A);
+ return _mm_cvtts_ps_epi32(A);
}
-__m128i test_mm_mask_cvttsps_epi32(__m128i W, __mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm_mask_cvttsps_epi32
+__m128i test_mm_mask_cvtts_ps_epi32(__m128i W, __mmask8 U, __m128 A){
+// CHECK-LABEL: @test_mm_mask_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.128(<4 x float>
- return _mm_mask_cvttsps_epi32(W,U,A);
+ return _mm_mask_cvtts_ps_epi32(W,U,A);
}
-__m128i test_mm_maskz_cvttsps_epi32( __mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm_maskz_cvttsps_epi32
+__m128i test_mm_maskz_cvtts_ps_epi32( __mmask8 U, __m128 A){
+// CHECK-LABEL: @test_mm_maskz_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.128(<4 x float>
- return _mm_maskz_cvttsps_epi32(U,A);
+ return _mm_maskz_cvtts_ps_epi32(U,A);
}
-__m256i test_mm256_cvttsps_epi32(__m256 A){
-// CHECK-LABEL: @test_mm256_cvttsps_epi32
+__m256i test_mm256_cvtts_ps_epi32(__m256 A){
+// CHECK-LABEL: @test_mm256_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.256(<8 x float>
- return _mm256_cvttsps_epi32(A);
+ return _mm256_cvtts_ps_epi32(A);
}
-__m256i test_mm256_mask_cvttsps_epi32(__m256i W,__mmask8 U, __m256 A){
-// CHECK-LABEL: @test_mm256_mask_cvttsps_epi32
+__m256i test_mm256_mask_cvtts_ps_epi32(__m256i W,__mmask8 U, __m256 A){
+// CHECK-LABEL: @test_mm256_mask_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.256(<8 x float>
- return _mm256_mask_cvttsps_epi32(W,U,A);
+ return _mm256_mask_cvtts_ps_epi32(W,U,A);
}
-__m256i test_mm256_maskz_cvttsps_epi32(__mmask8 U, __m256 A){
-// CHECK-LABEL: @test_mm256_maskz_cvttsps_epi32
+__m256i test_mm256_maskz_cvtts_ps_epi32(__mmask8 U, __m256 A){
+// CHECK-LABEL: @test_mm256_maskz_cvtts_ps_epi32
// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.256(<8 x float>
- return _mm256_maskz_cvttsps_epi32(U,A);
+ return _mm256_maskz_cvtts_ps_epi32(U,A);
}
-__m256i test_mm256_cvtts_roundps_epi32(__m256 A){
-// CHECK-LABEL: @test_mm256_cvtts_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.256(<8 x float>
- return _mm256_cvtts_roundps_epi32(A, _MM_FROUND_NEARBYINT);
-}
-
-__m256i test_mm256_mask_cvtts_roundps_epi32(__m256i W,__mmask8 U, __m256 A){
-// CHECK-LABEL: @test_mm256_mask_cvtts_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.256(<8 x float>
- return _mm256_mask_cvtts_roundps_epi32(W,U,A,_MM_FROUND_NEARBYINT);
-}
-
-__m256i test_mm256_maskz_cvtts_roundps_epi32(__mmask8 U, __m256 A){
-// CHECK-LABEL: @test_mm256_maskz_cvtts_roundps_epi32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2dqs.round.256(<8 x float>
- return _mm256_maskz_cvtts_roundps_epi32(U,A,_MM_FROUND_NEARBYINT);
-}
-
-__m128i test_mm_cvttsps_epu32(__m128 A){
-// CHECK-LABEL: @test_mm_cvttsps_epu32
+__m128i test_mm_cvtts_ps_epu32(__m128 A){
+// CHECK-LABEL: @test_mm_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.128(<4 x float>
- return _mm_cvttsps_epu32(A);
+ return _mm_cvtts_ps_epu32(A);
}
-__m128i test_mm_mask_cvttsps_epu32(__m128i W, __mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm_mask_cvttsps_epu32
+__m128i test_mm_mask_cvtts_ps_epu32(__m128i W, __mmask8 U, __m128 A){
+// CHECK-LABEL: @test_mm_mask_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.128(<4 x float>
- return _mm_mask_cvttsps_epu32(W,U,A);
+ return _mm_mask_cvtts_ps_epu32(W,U,A);
}
-__m128i test_mm_maskz_cvttsps_epu32( __mmask8 U, __m128 A){
-// CHECK-LABEL: @test_mm_maskz_cvttsps_epu32
+__m128i test_mm_maskz_cvtts_ps_epu32( __mmask8 U, __m128 A){
+// CHECK-LABEL: @test_mm_maskz_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.128(<4 x float>
- return _mm_maskz_cvttsps_epu32(U,A);
-}
-
-__m256i test_mm256_cvttsps_epu32(__m256 A){
-// CHECK-LABEL: @test_mm256_cvttsps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.256(<8 x float>
- return _mm256_cvttsps_epu32(A);
-}
-
-__m256i test_mm256_mask_cvttsps_epu32(__m256i W,__mmask8 U, __m256 A){
-// CHECK-LABEL: @test_mm256_mask_cvttsps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.256(<8 x float>
- return _mm256_mask_cvttsps_epu32(W,U,A);
+ return _mm_maskz_cvtts_ps_epu32(U,A);
}
-__m256i test_mm256_maskz_cvttsps_epu32(__mmask8 U, __m256 A){
-// CHECK-LABEL: @test_mm256_maskz_cvttsps_epu32
+__m256i test_mm256_cvtts_ps_epu32(__m256 A){
+// CHECK-LABEL: @test_mm256_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.256(<8 x float>
- return _mm256_maskz_cvttsps_epu32(U,A);
+ return _mm256_cvtts_ps_epu32(A);
}
-__m256i test_mm256_cvtts_roundps_epu32(__m256 A){
-// CHECK-LABEL: @test_mm256_cvtts_roundps_epu32
+__m256i test_mm256_mask_cvtts_ps_epu32(__m256i W,__mmask8 U, __m256 A){
+// CHECK-LABEL: @test_mm256_mask_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.256(<8 x float>
- return _mm256_cvtts_roundps_epu32(A, _MM_FROUND_NEARBYINT);
+ return _mm256_mask_cvtts_ps_epu32(W,U,A);
}
-__m256i test_mm256_mask_cvtts_roundps_epu32(__m256i W,__mmask8 U, __m256 A){
-// CHECK-LABEL: @test_mm256_mask_cvtts_roundps_epu32
+__m256i test_mm256_maskz_cvtts_ps_epu32(__mmask8 U, __m256 A){
+// CHECK-LABEL: @test_mm256_maskz_cvtts_ps_epu32
// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.256(<8 x float>
- return _mm256_mask_cvtts_roundps_epu32(W,U,A,_MM_FROUND_NEARBYINT);
+ return _mm256_maskz_cvtts_ps_epu32(U,A);
}
-
-__m256i test_mm256_maskz_cvtts_roundps_epu32(__mmask8 U, __m256 A){
-// CHECK-LABEL: @test_mm256_maskz_cvtts_roundps_epu32
-// CHECK: @llvm.x86.avx10.mask.vcvttps2udqs.round.256(<8 x float>
- return _mm256_maskz_cvtts_roundps_epu32(U,A,_MM_FROUND_NEARBYINT);
-}
-
-// X64: {{.*}}
-// X86: {{.*}}
More information about the llvm-branch-commits
mailing list