@@ -289,31 +289,31 @@ define void @truncstore_v8i64_v8i32(<8 x i64> %x, ptr %p, <8 x i32> %mask) {
289
289
; AVX1-NEXT: vpcmpeqd %xmm4, %xmm2, %xmm2
290
290
; AVX1-NEXT: vpxor %xmm5, %xmm2, %xmm2
291
291
; AVX1-NEXT: vinsertf128 $1, %xmm3, %ymm2, %ymm2
292
- ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
293
- ; AVX1-NEXT: vmovddup {{.*#+}} xmm4 = [2147483647,2147483647]
294
- ; AVX1-NEXT: # xmm4 = mem[0,0]
292
+ ; AVX1-NEXT: vmovddup {{.*#+}} xmm3 = [2147483647,2147483647]
293
+ ; AVX1-NEXT: # xmm3 = mem[0,0]
294
+ ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm3, %xmm4
295
+ ; AVX1-NEXT: vblendvpd %xmm4, %xmm1, %xmm3, %xmm4
296
+ ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm1
297
+ ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm3, %xmm5
298
+ ; AVX1-NEXT: vblendvpd %xmm5, %xmm1, %xmm3, %xmm1
299
+ ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm3, %xmm5
300
+ ; AVX1-NEXT: vblendvpd %xmm5, %xmm0, %xmm3, %xmm5
301
+ ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm0
302
+ ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm3, %xmm6
303
+ ; AVX1-NEXT: vblendvpd %xmm6, %xmm0, %xmm3, %xmm0
304
+ ; AVX1-NEXT: vmovddup {{.*#+}} xmm3 = [18446744071562067968,18446744071562067968]
305
+ ; AVX1-NEXT: # xmm3 = mem[0,0]
306
+ ; AVX1-NEXT: vpcmpgtq %xmm3, %xmm0, %xmm6
307
+ ; AVX1-NEXT: vblendvpd %xmm6, %xmm0, %xmm3, %xmm0
308
+ ; AVX1-NEXT: vpcmpgtq %xmm3, %xmm5, %xmm6
309
+ ; AVX1-NEXT: vblendvpd %xmm6, %xmm5, %xmm3, %xmm5
310
+ ; AVX1-NEXT: vshufps {{.*#+}} xmm0 = xmm5[0,2],xmm0[0,2]
311
+ ; AVX1-NEXT: vpcmpgtq %xmm3, %xmm1, %xmm5
312
+ ; AVX1-NEXT: vblendvpd %xmm5, %xmm1, %xmm3, %xmm1
295
313
; AVX1-NEXT: vpcmpgtq %xmm3, %xmm4, %xmm5
296
- ; AVX1-NEXT: vblendvpd %xmm5, %xmm3, %xmm4, %xmm3
297
- ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm5
298
- ; AVX1-NEXT: vpcmpgtq %xmm5, %xmm4, %xmm6
299
- ; AVX1-NEXT: vblendvpd %xmm6, %xmm5, %xmm4, %xmm5
300
- ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm4, %xmm6
301
- ; AVX1-NEXT: vblendvpd %xmm6, %xmm0, %xmm4, %xmm0
302
- ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm4, %xmm6
303
- ; AVX1-NEXT: vblendvpd %xmm6, %xmm1, %xmm4, %xmm1
304
- ; AVX1-NEXT: vmovddup {{.*#+}} xmm4 = [18446744071562067968,18446744071562067968]
305
- ; AVX1-NEXT: # xmm4 = mem[0,0]
306
- ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm1, %xmm6
307
- ; AVX1-NEXT: vblendvpd %xmm6, %xmm1, %xmm4, %xmm1
308
- ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm0, %xmm6
309
- ; AVX1-NEXT: vblendvpd %xmm6, %xmm0, %xmm4, %xmm0
310
- ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm6
311
- ; AVX1-NEXT: vblendvpd %xmm6, %xmm5, %xmm4, %xmm5
312
- ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm3, %xmm6
313
- ; AVX1-NEXT: vblendvpd %xmm6, %xmm3, %xmm4, %xmm3
314
- ; AVX1-NEXT: vinsertf128 $1, %xmm5, %ymm3, %ymm3
314
+ ; AVX1-NEXT: vblendvpd %xmm5, %xmm4, %xmm3, %xmm3
315
+ ; AVX1-NEXT: vshufps {{.*#+}} xmm1 = xmm3[0,2],xmm1[0,2]
315
316
; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
316
- ; AVX1-NEXT: vshufps {{.*#+}} ymm0 = ymm0[0,2],ymm3[0,2],ymm0[4,6],ymm3[4,6]
317
317
; AVX1-NEXT: vmaskmovps %ymm0, %ymm2, (%rdi)
318
318
; AVX1-NEXT: vzeroupper
319
319
; AVX1-NEXT: retq
0 commit comments