Home
last modified time | relevance | path

Searched defs:__m256d (Results 1 – 25 of 57) sorted by relevance

123

/aosp_15_r20/prebuilts/rust/linux-musl-x86/1.80.1/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/
H A Dfma.rs47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd()
125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd()
175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd()
253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd()
303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd()
381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd()
450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256()
458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256()
470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256()
478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256()
[all …]
H A Davx.rs33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd()
59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd()
89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd()
118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd()
168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd()
197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd()
221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd()
245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd()
269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd()
301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd()
[all …]
H A Dtest.rs54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d()
62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
H A Davx512f.rs528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd()
540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd()
872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd()
884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd()
1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd()
1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd()
1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd()
1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd()
1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd()
1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd()
[all …]
/aosp_15_r20/prebuilts/rust/linux-musl-x86/1.81.0/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/
H A Dfma.rs47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd()
125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd()
175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd()
253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd()
303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd()
381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd()
450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256()
458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256()
470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256()
478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256()
[all …]
H A Davx.rs33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd()
59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd()
89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd()
118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd()
168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd()
197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd()
221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd()
245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd()
269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd()
301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd()
[all …]
H A Dtest.rs54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d()
62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
H A Davx512f.rs528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd()
540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd()
872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd()
884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd()
1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd()
1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd()
1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd()
1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd()
1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd()
1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd()
[all …]
H A Davx2.rs586 pub unsafe fn _mm256_broadcastsd_pd(a: __m128d) -> __m256d { in _mm256_broadcastsd_pd()
1315 ) -> __m256d { in _mm256_i32gather_pd()
1335 pub unsafe fn _mm256_mask_i32gather_pd<const SCALE: i32>( in _mm256_mask_i32gather_pd()
1339 mask: __m256d, in _mm256_mask_i32gather_pd()
1340 ) -> __m256d { in _mm256_mask_i32gather_pd()
1682 ) -> __m256d { in _mm256_i64gather_pd()
1702 pub unsafe fn _mm256_mask_i64gather_pd<const SCALE: i32>( in _mm256_mask_i64gather_pd()
1706 mask: __m256d, in _mm256_mask_i64gather_pd()
1707 ) -> __m256d { in _mm256_mask_i64gather_pd()
2291 pub unsafe fn _mm256_permute4x64_pd<const IMM8: i32>(a: __m256d) -> __m256d { in _mm256_permute4x64_pd()
[all …]
/aosp_15_r20/prebuilts/rust/linux-x86/1.80.1/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/
H A Dfma.rs47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd()
125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd()
175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd()
253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd()
303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd()
381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd()
450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256()
458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256()
470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256()
478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256()
[all …]
H A Davx.rs33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd()
59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd()
89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd()
118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd()
168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd()
197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd()
221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd()
245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd()
269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd()
301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd()
[all …]
H A Dtest.rs54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d()
62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
H A Davx512f.rs528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd()
540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd()
872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd()
884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd()
1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd()
1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd()
1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd()
1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd()
1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd()
1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd()
[all …]
H A Davx2.rs586 pub unsafe fn _mm256_broadcastsd_pd(a: __m128d) -> __m256d { in _mm256_broadcastsd_pd()
1315 ) -> __m256d { in _mm256_i32gather_pd()
1335 pub unsafe fn _mm256_mask_i32gather_pd<const SCALE: i32>( in _mm256_mask_i32gather_pd()
1339 mask: __m256d, in _mm256_mask_i32gather_pd()
1340 ) -> __m256d { in _mm256_mask_i32gather_pd()
1682 ) -> __m256d { in _mm256_i64gather_pd()
1702 pub unsafe fn _mm256_mask_i64gather_pd<const SCALE: i32>( in _mm256_mask_i64gather_pd()
1706 mask: __m256d, in _mm256_mask_i64gather_pd()
1707 ) -> __m256d { in _mm256_mask_i64gather_pd()
2291 pub unsafe fn _mm256_permute4x64_pd<const IMM8: i32>(a: __m256d) -> __m256d { in _mm256_permute4x64_pd()
[all …]
/aosp_15_r20/prebuilts/rust/linux-x86/1.81.0.u1/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/
H A Dfma.rs47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd()
125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd()
175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd()
253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd()
303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd()
381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd()
450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256()
458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256()
470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256()
478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256()
[all …]
H A Davx.rs33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd()
59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd()
89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd()
118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd()
168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd()
197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd()
221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd()
245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd()
269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd()
301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd()
[all …]
H A Dtest.rs54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d()
62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
H A Davx512f.rs528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd()
540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd()
872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd()
884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd()
1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd()
1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd()
1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd()
1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd()
1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd()
1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd()
[all …]
H A Davx2.rs586 pub unsafe fn _mm256_broadcastsd_pd(a: __m128d) -> __m256d { in _mm256_broadcastsd_pd()
1315 ) -> __m256d { in _mm256_i32gather_pd()
1335 pub unsafe fn _mm256_mask_i32gather_pd<const SCALE: i32>( in _mm256_mask_i32gather_pd()
1339 mask: __m256d, in _mm256_mask_i32gather_pd()
1340 ) -> __m256d { in _mm256_mask_i32gather_pd()
1682 ) -> __m256d { in _mm256_i64gather_pd()
1702 pub unsafe fn _mm256_mask_i64gather_pd<const SCALE: i32>( in _mm256_mask_i64gather_pd()
1706 mask: __m256d, in _mm256_mask_i64gather_pd()
1707 ) -> __m256d { in _mm256_mask_i64gather_pd()
2291 pub unsafe fn _mm256_permute4x64_pd<const IMM8: i32>(a: __m256d) -> __m256d { in _mm256_permute4x64_pd()
[all …]
/aosp_15_r20/prebuilts/rust/linux-x86/1.81.0/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/
H A Dfma.rs47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd()
125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd()
175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd()
253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd()
303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd()
381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd()
450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256()
458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256()
470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256()
478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256()
[all …]
H A Davx.rs33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd()
59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd()
89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd()
118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd()
168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd()
197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd()
221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd()
245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd()
269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd()
301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd()
[all …]
H A Dtest.rs54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d()
62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
H A Davx512f.rs528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd()
540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd()
872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd()
884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd()
1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd()
1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd()
1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd()
1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd()
1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd()
1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd()
[all …]
H A Davx2.rs586 pub unsafe fn _mm256_broadcastsd_pd(a: __m128d) -> __m256d { in _mm256_broadcastsd_pd()
1315 ) -> __m256d { in _mm256_i32gather_pd()
1335 pub unsafe fn _mm256_mask_i32gather_pd<const SCALE: i32>( in _mm256_mask_i32gather_pd()
1339 mask: __m256d, in _mm256_mask_i32gather_pd()
1340 ) -> __m256d { in _mm256_mask_i32gather_pd()
1682 ) -> __m256d { in _mm256_i64gather_pd()
1702 pub unsafe fn _mm256_mask_i64gather_pd<const SCALE: i32>( in _mm256_mask_i64gather_pd()
1706 mask: __m256d, in _mm256_mask_i64gather_pd()
1707 ) -> __m256d { in _mm256_mask_i64gather_pd()
2291 pub unsafe fn _mm256_permute4x64_pd<const IMM8: i32>(a: __m256d) -> __m256d { in _mm256_permute4x64_pd()
[all …]
/aosp_15_r20/external/clang/test/CodeGenCXX/
H A Dx86_64-arguments-avx.cpp4 typedef double __m256d __attribute__((__vector_size__(32))); typedef
20 typedef double __m256d __attribute__((__vector_size__(32))); typedef

123