/aosp_15_r20/external/clang/test/CodeGen/ |
H A D | avx512vl-builtins.c | 608 __m256i test_mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi32() 615 __m256i test_mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi32() 621 __m256i test_mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_add_epi64() 628 __m256i test_mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi64() 634 __m256i test_mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_sub_epi32() 641 __m256i test_mm256_maskz_sub_epi32 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_sub_epi32() 647 __m256i test_mm256_mask_sub_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in test_mm256_mask_sub_epi64() 654 __m256i test_mm256_maskz_sub_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_sub_epi64() 660 __m128i test_mm_mask_add_epi32 (__m128i __W, __mmask8 __U, __m128i __A, in test_mm_mask_add_epi32() 668 __m128i test_mm_maskz_add_epi32 (__mmask8 __U, __m128i __A, __m128i __B) { in test_mm_maskz_add_epi32() [all …]
|
H A D | avx512vldq-builtins.c | 14 __m256i test_mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_mask_mullo_epi64() 20 __m256i test_mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_mullo_epi64() 32 __m128i test_mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in test_mm_mask_mullo_epi64() 38 __m128i test_mm_maskz_mullo_epi64 (__mmask8 __U, __m128i __A, __m128i __B) { in test_mm_maskz_mullo_epi64() 44 __m256d test_mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in test_mm256_mask_andnot_pd() 50 __m256d test_mm256_maskz_andnot_pd (__mmask8 __U, __m256d __A, __m256d __B) { in test_mm256_maskz_andnot_pd() 56 __m128d test_mm_mask_andnot_pd (__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in test_mm_mask_andnot_pd() 62 __m128d test_mm_maskz_andnot_pd (__mmask8 __U, __m128d __A, __m128d __B) { in test_mm_maskz_andnot_pd() 68 __m256 test_mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_mask_andnot_ps() 74 __m256 test_mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B) { in test_mm256_maskz_andnot_ps() [all …]
|
H A D | avx512dq-builtins.c | 14 __m512i test_mm512_mask_mullo_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_mask_mullo_epi64() 20 __m512i test_mm512_maskz_mullo_epi64 (__mmask8 __U, __m512i __A, __m512i __B) { in test_mm512_maskz_mullo_epi64() 32 __m512d test_mm512_mask_xor_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_xor_pd() 38 __m512d test_mm512_maskz_xor_pd (__mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_maskz_xor_pd() 50 __m512 test_mm512_mask_xor_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_mask_xor_ps() 56 __m512 test_mm512_maskz_xor_ps (__mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_maskz_xor_ps() 68 __m512d test_mm512_mask_or_pd (__m512d __W, __mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_mask_or_pd() 74 __m512d test_mm512_maskz_or_pd (__mmask8 __U, __m512d __A, __m512d __B) { in test_mm512_maskz_or_pd() 86 __m512 test_mm512_mask_or_ps (__m512 __W, __mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_mask_or_ps() 92 __m512 test_mm512_maskz_or_ps (__mmask16 __U, __m512 __A, __m512 __B) { in test_mm512_maskz_or_ps() [all …]
|
H A D | avx512f-builtins.c | 15 __m512d test_mm512_mask_sqrt_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_sqrt_pd() 22 __m512d test_mm512_maskz_sqrt_pd (__mmask8 __U, __m512d __A) in test_mm512_maskz_sqrt_pd() 29 __m512d test_mm512_mask_sqrt_round_pd(__m512d __W,__mmask8 __U,__m512d __A) in test_mm512_mask_sqrt_round_pd() 36 __m512d test_mm512_maskz_sqrt_round_pd(__mmask8 __U,__m512d __A) in test_mm512_maskz_sqrt_round_pd() 57 __m512 test_mm512_mask_sqrt_ps(__m512 __W, __mmask16 __U, __m512 __A) in test_mm512_mask_sqrt_ps() 64 __m512 test_mm512_maskz_sqrt_ps( __mmask16 __U, __m512 __A) in test_mm512_maskz_sqrt_ps() 71 __m512 test_mm512_mask_sqrt_round_ps(__m512 __W,__mmask16 __U,__m512 __A) in test_mm512_mask_sqrt_round_ps() 78 __m512 test_mm512_maskz_sqrt_round_ps(__mmask16 __U,__m512 __A) in test_mm512_maskz_sqrt_round_ps() 99 __m512d test_mm512_mask_rsqrt14_pd (__m512d __W, __mmask8 __U, __m512d __A) in test_mm512_mask_rsqrt14_pd() 106 __m512d test_mm512_maskz_rsqrt14_pd (__mmask8 __U, __m512d __A) in test_mm512_maskz_rsqrt14_pd() [all …]
|
H A D | avx512vlbw-builtins.c | 738 __m256i test_mm256_mask_add_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B){ in test_mm256_mask_add_epi8() 744 __m256i test_mm256_maskz_add_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi8() 749 __m256i test_mm256_mask_add_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_add_epi16() 755 __m256i test_mm256_maskz_add_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_add_epi16() 761 __m256i test_mm256_mask_sub_epi8 (__m256i __W, __mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi8() 767 __m256i test_mm256_maskz_sub_epi8 (__mmask32 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_sub_epi8() 773 __m256i test_mm256_mask_sub_epi16 (__m256i __W, __mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_mask_sub_epi16() 779 __m256i test_mm256_maskz_sub_epi16 (__mmask16 __U, __m256i __A, __m256i __B) { in test_mm256_maskz_sub_epi16() 784 __m128i test_mm_mask_add_epi8 (__m128i __W, __mmask16 __U, __m128i __A, __m128i __B) { in test_mm_mask_add_epi8() 790 __m128i test_mm_maskz_add_epi8 (__mmask16 __U, __m128i __A, __m128i __B) { in test_mm_maskz_add_epi8() [all …]
|
/aosp_15_r20/prebuilts/clang/host/linux-x86/clang-r536225/lib/clang/19/include/ |
D | avx512vlfp16intrin.h | 90 _mm256_mask_add_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_add_ph() 96 _mm256_maskz_add_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_add_ph() 107 __mmask8 __U, in _mm_mask_add_ph() 114 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_add_ph(__mmask8 __U, in _mm_maskz_add_ph() 127 _mm256_mask_sub_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_sub_ph() 133 _mm256_maskz_sub_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_sub_ph() 144 __mmask8 __U, in _mm_mask_sub_ph() 151 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_sub_ph(__mmask8 __U, in _mm_maskz_sub_ph() 164 _mm256_mask_mul_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_mul_ph() 170 _mm256_maskz_mul_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_mul_ph() [all …]
|
D | avx512vlintrin.h | 233 _mm256_mask_add_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi32() 241 _mm256_maskz_add_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() 249 _mm256_mask_add_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi64() 257 _mm256_maskz_add_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() 265 _mm256_mask_sub_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi32() 273 _mm256_maskz_sub_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi32() 281 _mm256_mask_sub_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi64() 289 _mm256_maskz_sub_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi64() 297 _mm_mask_add_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) in _mm_mask_add_epi32() 305 _mm_maskz_add_epi32(__mmask8 __U, __m128i __A, __m128i __B) in _mm_maskz_add_epi32() [all …]
|
D | avx512vldqintrin.h | 33 _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() 40 _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() 52 _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() 59 _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() 66 _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() 73 _mm256_maskz_andnot_pd(__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_andnot_pd() 80 _mm_mask_andnot_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() 87 _mm_maskz_andnot_pd(__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_andnot_pd() 94 _mm256_mask_andnot_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() 101 _mm256_maskz_andnot_ps(__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() [all …]
|
/aosp_15_r20/prebuilts/clang-tools/linux-x86/lib64/clang/19/include/ |
H A D | avx512vlfp16intrin.h | 90 _mm256_mask_add_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_add_ph() 96 _mm256_maskz_add_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_add_ph() 107 __mmask8 __U, in _mm_mask_add_ph() 114 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_add_ph(__mmask8 __U, in _mm_maskz_add_ph() 127 _mm256_mask_sub_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_sub_ph() 133 _mm256_maskz_sub_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_sub_ph() 144 __mmask8 __U, in _mm_mask_sub_ph() 151 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_sub_ph(__mmask8 __U, in _mm_maskz_sub_ph() 164 _mm256_mask_mul_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_mul_ph() 170 _mm256_maskz_mul_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_mul_ph() [all …]
|
H A D | avx512vlintrin.h | 233 _mm256_mask_add_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi32() 241 _mm256_maskz_add_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() 249 _mm256_mask_add_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi64() 257 _mm256_maskz_add_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() 265 _mm256_mask_sub_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi32() 273 _mm256_maskz_sub_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi32() 281 _mm256_mask_sub_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi64() 289 _mm256_maskz_sub_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi64() 297 _mm_mask_add_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) in _mm_mask_add_epi32() 305 _mm_maskz_add_epi32(__mmask8 __U, __m128i __A, __m128i __B) in _mm_maskz_add_epi32() [all …]
|
H A D | avx512vldqintrin.h | 33 _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() 40 _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() 52 _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() 59 _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() 66 _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() 73 _mm256_maskz_andnot_pd(__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_andnot_pd() 80 _mm_mask_andnot_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() 87 _mm_maskz_andnot_pd(__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_andnot_pd() 94 _mm256_mask_andnot_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() 101 _mm256_maskz_andnot_ps(__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() [all …]
|
/aosp_15_r20/prebuilts/clang/host/linux-x86/clang-r530567/lib/clang/19/include/ |
D | avx512vlfp16intrin.h | 90 _mm256_mask_add_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_add_ph() 96 _mm256_maskz_add_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_add_ph() 107 __mmask8 __U, in _mm_mask_add_ph() 114 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_add_ph(__mmask8 __U, in _mm_maskz_add_ph() 127 _mm256_mask_sub_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_sub_ph() 133 _mm256_maskz_sub_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_sub_ph() 144 __mmask8 __U, in _mm_mask_sub_ph() 151 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_sub_ph(__mmask8 __U, in _mm_maskz_sub_ph() 164 _mm256_mask_mul_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_mul_ph() 170 _mm256_maskz_mul_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_mul_ph() [all …]
|
D | avx512vlintrin.h | 233 _mm256_mask_add_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi32() 241 _mm256_maskz_add_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() 249 _mm256_mask_add_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi64() 257 _mm256_maskz_add_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() 265 _mm256_mask_sub_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi32() 273 _mm256_maskz_sub_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi32() 281 _mm256_mask_sub_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi64() 289 _mm256_maskz_sub_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi64() 297 _mm_mask_add_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) in _mm_mask_add_epi32() 305 _mm_maskz_add_epi32(__mmask8 __U, __m128i __A, __m128i __B) in _mm_maskz_add_epi32() [all …]
|
D | avx512vldqintrin.h | 33 _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() 40 _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() 52 _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() 59 _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() 66 _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() 73 _mm256_maskz_andnot_pd(__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_andnot_pd() 80 _mm_mask_andnot_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() 87 _mm_maskz_andnot_pd(__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_andnot_pd() 94 _mm256_mask_andnot_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() 101 _mm256_maskz_andnot_ps(__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() [all …]
|
/aosp_15_r20/prebuilts/clang/host/linux-x86/clang-r530567b/lib/clang/19/include/ |
D | avx512vlfp16intrin.h | 90 _mm256_mask_add_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_add_ph() 96 _mm256_maskz_add_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_add_ph() 107 __mmask8 __U, in _mm_mask_add_ph() 114 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_add_ph(__mmask8 __U, in _mm_maskz_add_ph() 127 _mm256_mask_sub_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_sub_ph() 133 _mm256_maskz_sub_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_sub_ph() 144 __mmask8 __U, in _mm_mask_sub_ph() 151 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_sub_ph(__mmask8 __U, in _mm_maskz_sub_ph() 164 _mm256_mask_mul_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_mul_ph() 170 _mm256_maskz_mul_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_mul_ph() [all …]
|
D | avx512vlintrin.h | 233 _mm256_mask_add_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi32() 241 _mm256_maskz_add_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() 249 _mm256_mask_add_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi64() 257 _mm256_maskz_add_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() 265 _mm256_mask_sub_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi32() 273 _mm256_maskz_sub_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi32() 281 _mm256_mask_sub_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi64() 289 _mm256_maskz_sub_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi64() 297 _mm_mask_add_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) in _mm_mask_add_epi32() 305 _mm_maskz_add_epi32(__mmask8 __U, __m128i __A, __m128i __B) in _mm_maskz_add_epi32() [all …]
|
/aosp_15_r20/prebuilts/clang/host/linux-x86/clang-r522817/lib/clang/18/include/ |
D | avx512vlfp16intrin.h | 90 _mm256_mask_add_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_add_ph() 96 _mm256_maskz_add_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_add_ph() 107 __mmask8 __U, in _mm_mask_add_ph() 114 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_add_ph(__mmask8 __U, in _mm_maskz_add_ph() 127 _mm256_mask_sub_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_sub_ph() 133 _mm256_maskz_sub_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_sub_ph() 144 __mmask8 __U, in _mm_mask_sub_ph() 151 static __inline__ __m128h __DEFAULT_FN_ATTRS128 _mm_maskz_sub_ph(__mmask8 __U, in _mm_maskz_sub_ph() 164 _mm256_mask_mul_ph(__m256h __W, __mmask16 __U, __m256h __A, __m256h __B) { in _mm256_mask_mul_ph() 170 _mm256_maskz_mul_ph(__mmask16 __U, __m256h __A, __m256h __B) { in _mm256_maskz_mul_ph() [all …]
|
D | avx512vlintrin.h | 233 _mm256_mask_add_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi32() 241 _mm256_maskz_add_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() 249 _mm256_mask_add_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_add_epi64() 257 _mm256_maskz_add_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() 265 _mm256_mask_sub_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi32() 273 _mm256_maskz_sub_epi32(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi32() 281 _mm256_mask_sub_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) in _mm256_mask_sub_epi64() 289 _mm256_maskz_sub_epi64(__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi64() 297 _mm_mask_add_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) in _mm_mask_add_epi32() 305 _mm_maskz_add_epi32(__mmask8 __U, __m128i __A, __m128i __B) in _mm_maskz_add_epi32() [all …]
|
D | avx512vldqintrin.h | 33 _mm256_mask_mullo_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() 40 _mm256_maskz_mullo_epi64(__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() 52 _mm_mask_mullo_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() 59 _mm_maskz_mullo_epi64(__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() 66 _mm256_mask_andnot_pd(__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() 73 _mm256_maskz_andnot_pd(__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_andnot_pd() 80 _mm_mask_andnot_pd(__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() 87 _mm_maskz_andnot_pd(__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_andnot_pd() 94 _mm256_mask_andnot_ps(__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() 101 _mm256_maskz_andnot_ps(__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() [all …]
|
/aosp_15_r20/external/clang/lib/Headers/ |
H A D | avx512vlintrin.h | 619 _mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi32() 629 _mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() 639 _mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi64() 649 _mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() 659 _mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi32() 669 _mm256_maskz_sub_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi32() 679 _mm256_mask_sub_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi64() 689 _mm256_maskz_sub_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi64() 699 _mm_mask_add_epi32 (__m128i __W, __mmask8 __U, __m128i __A, in _mm_mask_add_epi32() 709 _mm_maskz_add_epi32 (__mmask8 __U, __m128i __A, __m128i __B) in _mm_maskz_add_epi32() [all …]
|
H A D | avx512vldqintrin.h | 40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() 48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() 62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() 70 _mm_maskz_mullo_epi64 (__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() 79 _mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() 87 _mm256_maskz_andnot_pd (__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_andnot_pd() 96 _mm_mask_andnot_pd (__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() 104 _mm_maskz_andnot_pd (__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_andnot_pd() 113 _mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() 121 _mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() [all …]
|
/aosp_15_r20/prebuilts/sdk/renderscript/clang-include/ |
H A D | avx512vlintrin.h | 619 _mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi32() 629 _mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() 639 _mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi64() 649 _mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() 659 _mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi32() 669 _mm256_maskz_sub_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi32() 679 _mm256_mask_sub_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi64() 689 _mm256_maskz_sub_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi64() 699 _mm_mask_add_epi32 (__m128i __W, __mmask8 __U, __m128i __A, in _mm_mask_add_epi32() 709 _mm_maskz_add_epi32 (__mmask8 __U, __m128i __A, __m128i __B) in _mm_maskz_add_epi32() [all …]
|
H A D | avx512vldqintrin.h | 40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() 48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() 62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() 70 _mm_maskz_mullo_epi64 (__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() 79 _mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() 87 _mm256_maskz_andnot_pd (__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_andnot_pd() 96 _mm_mask_andnot_pd (__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() 104 _mm_maskz_andnot_pd (__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_andnot_pd() 113 _mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() 121 _mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() [all …]
|
/aosp_15_r20/prebuilts/clang/host/linux-x86/clang-3289846/lib64/clang/3.8/include/ |
D | avx512vlintrin.h | 619 _mm256_mask_add_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi32() 629 _mm256_maskz_add_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi32() 639 _mm256_mask_add_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_add_epi64() 649 _mm256_maskz_add_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_add_epi64() 659 _mm256_mask_sub_epi32 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi32() 669 _mm256_maskz_sub_epi32 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi32() 679 _mm256_mask_sub_epi64 (__m256i __W, __mmask8 __U, __m256i __A, in _mm256_mask_sub_epi64() 689 _mm256_maskz_sub_epi64 (__mmask8 __U, __m256i __A, __m256i __B) in _mm256_maskz_sub_epi64() 699 _mm_mask_add_epi32 (__m128i __W, __mmask8 __U, __m128i __A, in _mm_mask_add_epi32() 709 _mm_maskz_add_epi32 (__mmask8 __U, __m128i __A, __m128i __B) in _mm_maskz_add_epi32() [all …]
|
D | avx512vldqintrin.h | 40 _mm256_mask_mullo_epi64 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B) { in _mm256_mask_mullo_epi64() 48 _mm256_maskz_mullo_epi64 (__mmask8 __U, __m256i __A, __m256i __B) { in _mm256_maskz_mullo_epi64() 62 _mm_mask_mullo_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) { in _mm_mask_mullo_epi64() 70 _mm_maskz_mullo_epi64 (__mmask8 __U, __m128i __A, __m128i __B) { in _mm_maskz_mullo_epi64() 79 _mm256_mask_andnot_pd (__m256d __W, __mmask8 __U, __m256d __A, __m256d __B) { in _mm256_mask_andnot_pd() 87 _mm256_maskz_andnot_pd (__mmask8 __U, __m256d __A, __m256d __B) { in _mm256_maskz_andnot_pd() 96 _mm_mask_andnot_pd (__m128d __W, __mmask8 __U, __m128d __A, __m128d __B) { in _mm_mask_andnot_pd() 104 _mm_maskz_andnot_pd (__mmask8 __U, __m128d __A, __m128d __B) { in _mm_maskz_andnot_pd() 113 _mm256_mask_andnot_ps (__m256 __W, __mmask8 __U, __m256 __A, __m256 __B) { in _mm256_mask_andnot_ps() 121 _mm256_maskz_andnot_ps (__mmask8 __U, __m256 __A, __m256 __B) { in _mm256_maskz_andnot_ps() [all …]
|