[clang] [X86] Allow AVX512 funnel shift intrinsics to be used in constexpr (PR #157668)

via cfe-commits cfe-commits at lists.llvm.org
Tue Sep 9 06:14:28 PDT 2025


github-actions[bot] wrote:

<!--LLVM CODE FORMAT COMMENT: {clang-format}-->


:warning: C/C++ code formatter, clang-format found issues in your code. :warning:

<details>
<summary>
You can test this locally with the following command:
</summary>

``````````bash
git-clang-format --diff origin/main HEAD --extensions h,c -- clang/lib/Headers/avx512vbmi2intrin.h clang/lib/Headers/avx512vlvbmi2intrin.h clang/test/CodeGen/X86/avx512vbmi2-builtins.c clang/test/CodeGen/X86/avx512vlvbmi2-builtins.c
``````````

:warning:
The reproduction instructions above might return results for more than one PR
in a stack if you are using a stacked PR workflow. You can limit the results by
changing `origin/main` to the base branch/commit you want to compare against.
:warning:

</details>

<details>
<summary>
View the diff from clang-format here.
</summary>

``````````diff
diff --git a/clang/lib/Headers/avx512vbmi2intrin.h b/clang/lib/Headers/avx512vbmi2intrin.h
index a24b6e592..02052d6ed 100644
--- a/clang/lib/Headers/avx512vbmi2intrin.h
+++ b/clang/lib/Headers/avx512vbmi2intrin.h
@@ -220,147 +220,128 @@ _mm512_maskz_expandloadu_epi8(__mmask64 __U, void const *__P)
                                     (__v32hi)_mm512_setzero_si512()))
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_shldv_epi64(__m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_shldv_epi64(__m512i __A, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_elementwise_fshl((__v8du)__A, (__v8du)__B,
                                              (__v8du)__C);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_mask_shldv_epi64(__m512i __A, __mmask8 __U, __m512i __B, __m512i __C)
-{
+_mm512_mask_shldv_epi64(__m512i __A, __mmask8 __U, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectq_512(__U,
                                       (__v8di)_mm512_shldv_epi64(__A, __B, __C),
                                       (__v8di)__A);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_maskz_shldv_epi64(__mmask8 __U, __m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_maskz_shldv_epi64(__mmask8 __U, __m512i __A, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectq_512(__U,
                                       (__v8di)_mm512_shldv_epi64(__A, __B, __C),
                                       (__v8di)_mm512_setzero_si512());
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_shldv_epi32(__m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_shldv_epi32(__m512i __A, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_elementwise_fshl((__v16su)__A, (__v16su)__B,
                                              (__v16su)__C);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_mask_shldv_epi32(__m512i __A, __mmask16 __U, __m512i __B, __m512i __C)
-{
+_mm512_mask_shldv_epi32(__m512i __A, __mmask16 __U, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectd_512(__U,
                                      (__v16si)_mm512_shldv_epi32(__A, __B, __C),
                                      (__v16si)__A);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_maskz_shldv_epi32(__mmask16 __U, __m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_maskz_shldv_epi32(__mmask16 __U, __m512i __A, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectd_512(__U,
                                      (__v16si)_mm512_shldv_epi32(__A, __B, __C),
                                      (__v16si)_mm512_setzero_si512());
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_shldv_epi16(__m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_shldv_epi16(__m512i __A, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_elementwise_fshl((__v32hu)__A, (__v32hu)__B,
                                              (__v32hu)__C);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_mask_shldv_epi16(__m512i __A, __mmask32 __U, __m512i __B, __m512i __C)
-{
+_mm512_mask_shldv_epi16(__m512i __A, __mmask32 __U, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectw_512(__U,
                                      (__v32hi)_mm512_shldv_epi16(__A, __B, __C),
                                      (__v32hi)__A);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_maskz_shldv_epi16(__mmask32 __U, __m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_maskz_shldv_epi16(__mmask32 __U, __m512i __A, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectw_512(__U,
                                      (__v32hi)_mm512_shldv_epi16(__A, __B, __C),
                                      (__v32hi)_mm512_setzero_si512());
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_shrdv_epi64(__m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_shrdv_epi64(__m512i __A, __m512i __B, __m512i __C) {
   // Ops __A and __B are swapped.
   return (__m512i)__builtin_elementwise_fshr((__v8du)__B, (__v8du)__A,
                                              (__v8du)__C);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_mask_shrdv_epi64(__m512i __A, __mmask8 __U, __m512i __B, __m512i __C)
-{
+_mm512_mask_shrdv_epi64(__m512i __A, __mmask8 __U, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectq_512(__U,
                                       (__v8di)_mm512_shrdv_epi64(__A, __B, __C),
                                       (__v8di)__A);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_maskz_shrdv_epi64(__mmask8 __U, __m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_maskz_shrdv_epi64(__mmask8 __U, __m512i __A, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectq_512(__U,
                                       (__v8di)_mm512_shrdv_epi64(__A, __B, __C),
                                       (__v8di)_mm512_setzero_si512());
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_shrdv_epi32(__m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_shrdv_epi32(__m512i __A, __m512i __B, __m512i __C) {
   // Ops __A and __B are swapped.
   return (__m512i)__builtin_elementwise_fshr((__v16su)__B, (__v16su)__A,
                                              (__v16su)__C);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_mask_shrdv_epi32(__m512i __A, __mmask16 __U, __m512i __B, __m512i __C)
-{
+_mm512_mask_shrdv_epi32(__m512i __A, __mmask16 __U, __m512i __B, __m512i __C) {
   return (__m512i) __builtin_ia32_selectd_512(__U,
                                      (__v16si)_mm512_shrdv_epi32(__A, __B, __C),
                                      (__v16si)__A);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_maskz_shrdv_epi32(__mmask16 __U, __m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_maskz_shrdv_epi32(__mmask16 __U, __m512i __A, __m512i __B, __m512i __C) {
   return (__m512i) __builtin_ia32_selectd_512(__U,
                                      (__v16si)_mm512_shrdv_epi32(__A, __B, __C),
                                      (__v16si)_mm512_setzero_si512());
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_shrdv_epi16(__m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_shrdv_epi16(__m512i __A, __m512i __B, __m512i __C) {
   // Ops __A and __B are swapped.
   return (__m512i)__builtin_elementwise_fshr((__v32hu)__B, (__v32hu)__A,
                                              (__v32hu)__C);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_mask_shrdv_epi16(__m512i __A, __mmask32 __U, __m512i __B, __m512i __C)
-{
+_mm512_mask_shrdv_epi16(__m512i __A, __mmask32 __U, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectw_512(__U,
                                      (__v32hi)_mm512_shrdv_epi16(__A, __B, __C),
                                      (__v32hi)__A);
 }
 
 static __inline__ __m512i __DEFAULT_FN_ATTRS_CONSTEXPR
-_mm512_maskz_shrdv_epi16(__mmask32 __U, __m512i __A, __m512i __B, __m512i __C)
-{
+_mm512_maskz_shrdv_epi16(__mmask32 __U, __m512i __A, __m512i __B, __m512i __C) {
   return (__m512i)__builtin_ia32_selectw_512(__U,
                                      (__v32hi)_mm512_shrdv_epi16(__A, __B, __C),
                                      (__v32hi)_mm512_setzero_si512());
 }
 
-
 #undef __DEFAULT_FN_ATTRS
 #undef __DEFAULT_FN_ATTRS_CONSTEXPR
 
diff --git a/clang/lib/Headers/avx512vlvbmi2intrin.h b/clang/lib/Headers/avx512vlvbmi2intrin.h
index da295d2a1..f1b133303 100644
--- a/clang/lib/Headers/avx512vlvbmi2intrin.h
+++ b/clang/lib/Headers/avx512vlvbmi2intrin.h
@@ -421,282 +421,246 @@ _mm256_maskz_expandloadu_epi8(__mmask32 __U, void const *__P)
                                        (__v8hi)_mm_setzero_si128()))
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_shldv_epi64(__m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_shldv_epi64(__m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_elementwise_fshl((__v4du)__A, (__v4du)__B,
                                              (__v4du)__C);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_mask_shldv_epi64(__m256i __A, __mmask8 __U, __m256i __B, __m256i __C)
-{
+_mm256_mask_shldv_epi64(__m256i __A, __mmask8 __U, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectq_256(__U,
                                       (__v4di)_mm256_shldv_epi64(__A, __B, __C),
                                       (__v4di)__A);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_maskz_shldv_epi64(__mmask8 __U, __m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_maskz_shldv_epi64(__mmask8 __U, __m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectq_256(__U,
                                       (__v4di)_mm256_shldv_epi64(__A, __B, __C),
                                       (__v4di)_mm256_setzero_si256());
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_shldv_epi64(__m128i __A, __m128i __B, __m128i __C)
-{
+_mm_shldv_epi64(__m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_elementwise_fshl((__v2du)__A, (__v2du)__B,
                                              (__v2du)__C);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_mask_shldv_epi64(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C)
-{
+_mm_mask_shldv_epi64(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectq_128(__U,
                                          (__v2di)_mm_shldv_epi64(__A, __B, __C),
                                          (__v2di)__A);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_maskz_shldv_epi64(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C)
-{
+_mm_maskz_shldv_epi64(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectq_128(__U,
                                          (__v2di)_mm_shldv_epi64(__A, __B, __C),
                                          (__v2di)_mm_setzero_si128());
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_shldv_epi32(__m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_shldv_epi32(__m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_elementwise_fshl((__v8su)__A, (__v8su)__B,
                                              (__v8su)__C);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_mask_shldv_epi32(__m256i __A, __mmask8 __U, __m256i __B, __m256i __C)
-{
+_mm256_mask_shldv_epi32(__m256i __A, __mmask8 __U, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectd_256(__U,
                                       (__v8si)_mm256_shldv_epi32(__A, __B, __C),
                                       (__v8si)__A);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_maskz_shldv_epi32(__mmask8 __U, __m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_maskz_shldv_epi32(__mmask8 __U, __m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectd_256(__U,
                                       (__v8si)_mm256_shldv_epi32(__A, __B, __C),
                                       (__v8si)_mm256_setzero_si256());
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_shldv_epi32(__m128i __A, __m128i __B, __m128i __C)
-{
+_mm_shldv_epi32(__m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_elementwise_fshl((__v4su)__A, (__v4su)__B,
                                              (__v4su)__C);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_mask_shldv_epi32(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C)
-{
+_mm_mask_shldv_epi32(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectd_128(__U,
                                          (__v4si)_mm_shldv_epi32(__A, __B, __C),
                                          (__v4si)__A);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_maskz_shldv_epi32(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C)
-{
+_mm_maskz_shldv_epi32(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectd_128(__U,
                                          (__v4si)_mm_shldv_epi32(__A, __B, __C),
                                          (__v4si)_mm_setzero_si128());
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_shldv_epi16(__m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_shldv_epi16(__m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_elementwise_fshl((__v16hu)__A, (__v16hu)__B,
                                              (__v16hu)__C);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_mask_shldv_epi16(__m256i __A, __mmask16 __U, __m256i __B, __m256i __C)
-{
+_mm256_mask_shldv_epi16(__m256i __A, __mmask16 __U, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectw_256(__U,
                                       (__v16hi)_mm256_shldv_epi16(__A, __B, __C),
                                       (__v16hi)__A);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_maskz_shldv_epi16(__mmask16 __U, __m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_maskz_shldv_epi16(__mmask16 __U, __m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectw_256(__U,
                                       (__v16hi)_mm256_shldv_epi16(__A, __B, __C),
                                       (__v16hi)_mm256_setzero_si256());
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_shldv_epi16(__m128i __A, __m128i __B, __m128i __C)
-{
+_mm_shldv_epi16(__m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_elementwise_fshl((__v8hu)__A, (__v8hu)__B,
                                              (__v8hu)__C);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_mask_shldv_epi16(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C)
-{
+_mm_mask_shldv_epi16(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectw_128(__U,
                                          (__v8hi)_mm_shldv_epi16(__A, __B, __C),
                                          (__v8hi)__A);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_maskz_shldv_epi16(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C)
-{
+_mm_maskz_shldv_epi16(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectw_128(__U,
                                          (__v8hi)_mm_shldv_epi16(__A, __B, __C),
                                          (__v8hi)_mm_setzero_si128());
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_shrdv_epi64(__m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_shrdv_epi64(__m256i __A, __m256i __B, __m256i __C) {
   // Ops __A and __B are swapped.
   return (__m256i)__builtin_elementwise_fshr((__v4du)__B, (__v4du)__A,
                                              (__v4du)__C);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_mask_shrdv_epi64(__m256i __A, __mmask8 __U, __m256i __B, __m256i __C)
-{
+_mm256_mask_shrdv_epi64(__m256i __A, __mmask8 __U, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectq_256(__U,
                                       (__v4di)_mm256_shrdv_epi64(__A, __B, __C),
                                       (__v4di)__A);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_maskz_shrdv_epi64(__mmask8 __U, __m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_maskz_shrdv_epi64(__mmask8 __U, __m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectq_256(__U,
                                       (__v4di)_mm256_shrdv_epi64(__A, __B, __C),
                                       (__v4di)_mm256_setzero_si256());
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_shrdv_epi64(__m128i __A, __m128i __B, __m128i __C)
-{
+_mm_shrdv_epi64(__m128i __A, __m128i __B, __m128i __C) {
   // Ops __A and __B are swapped.
   return (__m128i)__builtin_elementwise_fshr((__v2du)__B, (__v2du)__A,
                                              (__v2du)__C);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_mask_shrdv_epi64(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C)
-{
+_mm_mask_shrdv_epi64(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectq_128(__U,
                                          (__v2di)_mm_shrdv_epi64(__A, __B, __C),
                                          (__v2di)__A);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_maskz_shrdv_epi64(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C)
-{
+_mm_maskz_shrdv_epi64(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectq_128(__U,
                                          (__v2di)_mm_shrdv_epi64(__A, __B, __C),
                                          (__v2di)_mm_setzero_si128());
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_shrdv_epi32(__m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_shrdv_epi32(__m256i __A, __m256i __B, __m256i __C) {
   // Ops __A and __B are swapped.
   return (__m256i)__builtin_elementwise_fshr((__v8su)__B, (__v8su)__A,
                                              (__v8su)__C);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_mask_shrdv_epi32(__m256i __A, __mmask8 __U, __m256i __B, __m256i __C)
-{
+_mm256_mask_shrdv_epi32(__m256i __A, __mmask8 __U, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectd_256(__U,
                                       (__v8si)_mm256_shrdv_epi32(__A, __B, __C),
                                       (__v8si)__A);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_maskz_shrdv_epi32(__mmask8 __U, __m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_maskz_shrdv_epi32(__mmask8 __U, __m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectd_256(__U,
                                       (__v8si)_mm256_shrdv_epi32(__A, __B, __C),
                                       (__v8si)_mm256_setzero_si256());
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_shrdv_epi32(__m128i __A, __m128i __B, __m128i __C)
-{
+_mm_shrdv_epi32(__m128i __A, __m128i __B, __m128i __C) {
   // Ops __A and __B are swapped.
   return (__m128i)__builtin_elementwise_fshr((__v4su)__B, (__v4su)__A,
                                              (__v4su)__C);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_mask_shrdv_epi32(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C)
-{
+_mm_mask_shrdv_epi32(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectd_128(__U,
                                          (__v4si)_mm_shrdv_epi32(__A, __B, __C),
                                          (__v4si)__A);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_maskz_shrdv_epi32(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C)
-{
+_mm_maskz_shrdv_epi32(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectd_128(__U,
                                          (__v4si)_mm_shrdv_epi32(__A, __B, __C),
                                          (__v4si)_mm_setzero_si128());
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_shrdv_epi16(__m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_shrdv_epi16(__m256i __A, __m256i __B, __m256i __C) {
   // Ops __A and __B are swapped.
   return (__m256i)__builtin_elementwise_fshr((__v16hu)__B, (__v16hu)__A,
                                              (__v16hu)__C);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_mask_shrdv_epi16(__m256i __A, __mmask16 __U, __m256i __B, __m256i __C)
-{
+_mm256_mask_shrdv_epi16(__m256i __A, __mmask16 __U, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectw_256(__U,
                                      (__v16hi)_mm256_shrdv_epi16(__A, __B, __C),
                                      (__v16hi)__A);
 }
 
 static __inline__ __m256i __DEFAULT_FN_ATTRS256_CONSTEXPR
-_mm256_maskz_shrdv_epi16(__mmask16 __U, __m256i __A, __m256i __B, __m256i __C)
-{
+_mm256_maskz_shrdv_epi16(__mmask16 __U, __m256i __A, __m256i __B, __m256i __C) {
   return (__m256i)__builtin_ia32_selectw_256(__U,
                                      (__v16hi)_mm256_shrdv_epi16(__A, __B, __C),
                                      (__v16hi)_mm256_setzero_si256());
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_shrdv_epi16(__m128i __A, __m128i __B, __m128i __C)
-{
+_mm_shrdv_epi16(__m128i __A, __m128i __B, __m128i __C) {
   // Ops __A and __B are swapped.
   return (__m128i)__builtin_elementwise_fshr((__v8hu)__B, (__v8hu)__A,
                                              (__v8hu)__C);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_mask_shrdv_epi16(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C)
-{
+_mm_mask_shrdv_epi16(__m128i __A, __mmask8 __U, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectw_128(__U,
                                          (__v8hi)_mm_shrdv_epi16(__A, __B, __C),
                                          (__v8hi)__A);
 }
 
 static __inline__ __m128i __DEFAULT_FN_ATTRS128_CONSTEXPR
-_mm_maskz_shrdv_epi16(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C)
-{
+_mm_maskz_shrdv_epi16(__mmask8 __U, __m128i __A, __m128i __B, __m128i __C) {
   return (__m128i)__builtin_ia32_selectw_128(__U,
                                          (__v8hi)_mm_shrdv_epi16(__A, __B, __C),
                                          (__v8hi)_mm_setzero_si128());

``````````

</details>


https://github.com/llvm/llvm-project/pull/157668


More information about the cfe-commits mailing list