/aosp_15_r20/prebuilts/rust/linux-musl-x86/1.80.1/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/ |
H A D | fma.rs | 47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd() 125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd() 175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd() 253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd() 303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd() 381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd() 450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256() 458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256() 470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256() 478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256() [all …]
|
H A D | avx.rs | 33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd() 59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd() 89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd() 118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd() 168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd() 197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd() 221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd() 245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd() 269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd() 301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd() [all …]
|
H A D | test.rs | 54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d() 62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
|
H A D | avx512f.rs | 528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd() 540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd() 872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd() 884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd() 1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd() 1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd() 1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd() 1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd() 1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd() 1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd() [all …]
|
/aosp_15_r20/prebuilts/rust/linux-musl-x86/1.81.0/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/ |
H A D | fma.rs | 47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd() 125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd() 175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd() 253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd() 303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd() 381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd() 450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256() 458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256() 470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256() 478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256() [all …]
|
H A D | avx.rs | 33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd() 59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd() 89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd() 118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd() 168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd() 197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd() 221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd() 245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd() 269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd() 301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd() [all …]
|
H A D | test.rs | 54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d() 62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
|
H A D | avx512f.rs | 528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd() 540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd() 872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd() 884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd() 1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd() 1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd() 1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd() 1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd() 1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd() 1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd() [all …]
|
H A D | avx2.rs | 586 pub unsafe fn _mm256_broadcastsd_pd(a: __m128d) -> __m256d { in _mm256_broadcastsd_pd() 1315 ) -> __m256d { in _mm256_i32gather_pd() 1335 pub unsafe fn _mm256_mask_i32gather_pd<const SCALE: i32>( in _mm256_mask_i32gather_pd() 1339 mask: __m256d, in _mm256_mask_i32gather_pd() 1340 ) -> __m256d { in _mm256_mask_i32gather_pd() 1682 ) -> __m256d { in _mm256_i64gather_pd() 1702 pub unsafe fn _mm256_mask_i64gather_pd<const SCALE: i32>( in _mm256_mask_i64gather_pd() 1706 mask: __m256d, in _mm256_mask_i64gather_pd() 1707 ) -> __m256d { in _mm256_mask_i64gather_pd() 2291 pub unsafe fn _mm256_permute4x64_pd<const IMM8: i32>(a: __m256d) -> __m256d { in _mm256_permute4x64_pd() [all …]
|
/aosp_15_r20/prebuilts/rust/linux-x86/1.80.1/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/ |
H A D | fma.rs | 47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd() 125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd() 175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd() 253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd() 303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd() 381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd() 450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256() 458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256() 470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256() 478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256() [all …]
|
H A D | avx.rs | 33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd() 59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd() 89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd() 118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd() 168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd() 197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd() 221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd() 245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd() 269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd() 301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd() [all …]
|
H A D | test.rs | 54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d() 62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
|
H A D | avx512f.rs | 528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd() 540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd() 872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd() 884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd() 1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd() 1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd() 1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd() 1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd() 1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd() 1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd() [all …]
|
H A D | avx2.rs | 586 pub unsafe fn _mm256_broadcastsd_pd(a: __m128d) -> __m256d { in _mm256_broadcastsd_pd() 1315 ) -> __m256d { in _mm256_i32gather_pd() 1335 pub unsafe fn _mm256_mask_i32gather_pd<const SCALE: i32>( in _mm256_mask_i32gather_pd() 1339 mask: __m256d, in _mm256_mask_i32gather_pd() 1340 ) -> __m256d { in _mm256_mask_i32gather_pd() 1682 ) -> __m256d { in _mm256_i64gather_pd() 1702 pub unsafe fn _mm256_mask_i64gather_pd<const SCALE: i32>( in _mm256_mask_i64gather_pd() 1706 mask: __m256d, in _mm256_mask_i64gather_pd() 1707 ) -> __m256d { in _mm256_mask_i64gather_pd() 2291 pub unsafe fn _mm256_permute4x64_pd<const IMM8: i32>(a: __m256d) -> __m256d { in _mm256_permute4x64_pd() [all …]
|
/aosp_15_r20/prebuilts/rust/linux-x86/1.81.0.u1/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/ |
H A D | fma.rs | 47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd() 125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd() 175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd() 253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd() 303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd() 381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd() 450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256() 458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256() 470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256() 478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256() [all …]
|
H A D | avx.rs | 33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd() 59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd() 89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd() 118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd() 168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd() 197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd() 221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd() 245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd() 269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd() 301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd() [all …]
|
H A D | test.rs | 54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d() 62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
|
H A D | avx512f.rs | 528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd() 540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd() 872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd() 884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd() 1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd() 1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd() 1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd() 1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd() 1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd() 1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd() [all …]
|
H A D | avx2.rs | 586 pub unsafe fn _mm256_broadcastsd_pd(a: __m128d) -> __m256d { in _mm256_broadcastsd_pd() 1315 ) -> __m256d { in _mm256_i32gather_pd() 1335 pub unsafe fn _mm256_mask_i32gather_pd<const SCALE: i32>( in _mm256_mask_i32gather_pd() 1339 mask: __m256d, in _mm256_mask_i32gather_pd() 1340 ) -> __m256d { in _mm256_mask_i32gather_pd() 1682 ) -> __m256d { in _mm256_i64gather_pd() 1702 pub unsafe fn _mm256_mask_i64gather_pd<const SCALE: i32>( in _mm256_mask_i64gather_pd() 1706 mask: __m256d, in _mm256_mask_i64gather_pd() 1707 ) -> __m256d { in _mm256_mask_i64gather_pd() 2291 pub unsafe fn _mm256_permute4x64_pd<const IMM8: i32>(a: __m256d) -> __m256d { in _mm256_permute4x64_pd() [all …]
|
/aosp_15_r20/prebuilts/rust/linux-x86/1.81.0/lib/rustlib/src/rust/library/stdarch/crates/core_arch/src/x86/ |
H A D | fma.rs | 47 pub unsafe fn _mm256_fmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmadd_pd() 125 pub unsafe fn _mm256_fmaddsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmaddsub_pd() 175 pub unsafe fn _mm256_fmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsub_pd() 253 pub unsafe fn _mm256_fmsubadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fmsubadd_pd() 303 pub unsafe fn _mm256_fnmadd_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmadd_pd() 381 pub unsafe fn _mm256_fnmsub_pd(a: __m256d, b: __m256d, c: __m256d) -> __m256d { in _mm256_fnmsub_pd() 450 fn vfmaddsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmaddsubpd256() 458 fn vfmsubpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubpd256() 470 fn vfmsubaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfmsubaddpd256() 478 fn vfnmaddpd256(a: __m256d, b: __m256d, c: __m256d) -> __m256d; in vfnmaddpd256() [all …]
|
H A D | avx.rs | 33 pub unsafe fn _mm256_add_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_add_pd() 59 pub unsafe fn _mm256_and_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_and_pd() 89 pub unsafe fn _mm256_or_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_or_pd() 118 pub unsafe fn _mm256_shuffle_pd<const MASK: i32>(a: __m256d, b: __m256d) -> __m256d { in _mm256_shuffle_pd() 168 pub unsafe fn _mm256_andnot_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_andnot_pd() 197 pub unsafe fn _mm256_max_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_max_pd() 221 pub unsafe fn _mm256_min_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_min_pd() 245 pub unsafe fn _mm256_mul_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_mul_pd() 269 pub unsafe fn _mm256_addsub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_addsub_pd() 301 pub unsafe fn _mm256_sub_pd(a: __m256d, b: __m256d) -> __m256d { in _mm256_sub_pd() [all …]
|
H A D | test.rs | 54 pub unsafe fn assert_eq_m256d(a: __m256d, b: __m256d) { in assert_eq_m256d() 62 pub unsafe fn get_m256d(a: __m256d, idx: usize) -> f64 { in get_m256d()
|
H A D | avx512f.rs | 528 pub unsafe fn _mm256_mask_mov_pd(src: __m256d, k: __mmask8, a: __m256d) -> __m256d { in _mm256_mask_mov_pd() 540 pub unsafe fn _mm256_maskz_mov_pd(k: __mmask8, a: __m256d) -> __m256d { in _mm256_maskz_mov_pd() 872 pub unsafe fn _mm256_mask_add_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_add_pd() 884 pub unsafe fn _mm256_maskz_add_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_add_pd() 1216 pub unsafe fn _mm256_mask_sub_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_sub_pd() 1228 pub unsafe fn _mm256_maskz_sub_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_sub_pd() 1686 pub unsafe fn _mm256_mask_mul_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_mul_pd() 1698 pub unsafe fn _mm256_maskz_mul_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_mul_pd() 1858 pub unsafe fn _mm256_mask_div_pd(src: __m256d, k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_mask_div_pd() 1870 pub unsafe fn _mm256_maskz_div_pd(k: __mmask8, a: __m256d, b: __m256d) -> __m256d { in _mm256_maskz_div_pd() [all …]
|
H A D | avx2.rs | 586 pub unsafe fn _mm256_broadcastsd_pd(a: __m128d) -> __m256d { in _mm256_broadcastsd_pd() 1315 ) -> __m256d { in _mm256_i32gather_pd() 1335 pub unsafe fn _mm256_mask_i32gather_pd<const SCALE: i32>( in _mm256_mask_i32gather_pd() 1339 mask: __m256d, in _mm256_mask_i32gather_pd() 1340 ) -> __m256d { in _mm256_mask_i32gather_pd() 1682 ) -> __m256d { in _mm256_i64gather_pd() 1702 pub unsafe fn _mm256_mask_i64gather_pd<const SCALE: i32>( in _mm256_mask_i64gather_pd() 1706 mask: __m256d, in _mm256_mask_i64gather_pd() 1707 ) -> __m256d { in _mm256_mask_i64gather_pd() 2291 pub unsafe fn _mm256_permute4x64_pd<const IMM8: i32>(a: __m256d) -> __m256d { in _mm256_permute4x64_pd() [all …]
|
/aosp_15_r20/external/clang/test/CodeGenCXX/ |
H A D | x86_64-arguments-avx.cpp | 4 typedef double __m256d __attribute__((__vector_size__(32))); typedef 20 typedef double __m256d __attribute__((__vector_size__(32))); typedef
|