@@ -12432,7 +12432,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12432
12432
; RV64ZVE32F-NEXT: vmv.x.s a2, v12
12433
12433
; RV64ZVE32F-NEXT: add a2, a0, a2
12434
12434
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12435
- ; RV64ZVE32F-NEXT: li a3, 32
12436
12435
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12437
12436
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, m1, tu, ma
12438
12437
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 1
@@ -12470,7 +12469,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12470
12469
; RV64ZVE32F-NEXT: vmv.x.s a2, v14
12471
12470
; RV64ZVE32F-NEXT: add a2, a0, a2
12472
12471
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12473
- ; RV64ZVE32F-NEXT: li a3, 32
12474
12472
; RV64ZVE32F-NEXT: vmv.s.x v14, a2
12475
12473
; RV64ZVE32F-NEXT: vsetivli zero, 6, e8, m1, tu, ma
12476
12474
; RV64ZVE32F-NEXT: vslideup.vi v10, v14, 5
@@ -12494,7 +12492,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12494
12492
; RV64ZVE32F-NEXT: vmv.x.s a2, v13
12495
12493
; RV64ZVE32F-NEXT: add a2, a0, a2
12496
12494
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12497
- ; RV64ZVE32F-NEXT: li a3, 32
12498
12495
; RV64ZVE32F-NEXT: vmv.s.x v13, a2
12499
12496
; RV64ZVE32F-NEXT: vsetivli zero, 10, e8, m1, tu, ma
12500
12497
; RV64ZVE32F-NEXT: vslideup.vi v10, v13, 9
@@ -12509,7 +12506,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12509
12506
; RV64ZVE32F-NEXT: vmv.x.s a2, v12
12510
12507
; RV64ZVE32F-NEXT: add a2, a0, a2
12511
12508
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12512
- ; RV64ZVE32F-NEXT: li a3, 32
12513
12509
; RV64ZVE32F-NEXT: vmv.s.x v14, a2
12514
12510
; RV64ZVE32F-NEXT: vsetivli zero, 11, e8, m1, tu, ma
12515
12511
; RV64ZVE32F-NEXT: vslideup.vi v10, v14, 10
@@ -12522,7 +12518,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12522
12518
; RV64ZVE32F-NEXT: vmv.x.s a2, v12
12523
12519
; RV64ZVE32F-NEXT: add a2, a0, a2
12524
12520
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12525
- ; RV64ZVE32F-NEXT: li a3, 32
12526
12521
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12527
12522
; RV64ZVE32F-NEXT: vsetivli zero, 12, e8, m1, tu, ma
12528
12523
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 11
@@ -12535,7 +12530,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12535
12530
; RV64ZVE32F-NEXT: vmv.x.s a2, v13
12536
12531
; RV64ZVE32F-NEXT: add a2, a0, a2
12537
12532
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12538
- ; RV64ZVE32F-NEXT: li a3, 32
12539
12533
; RV64ZVE32F-NEXT: vmv.s.x v9, a2
12540
12534
; RV64ZVE32F-NEXT: vsetivli zero, 13, e8, m1, tu, ma
12541
12535
; RV64ZVE32F-NEXT: vslideup.vi v10, v9, 12
@@ -12548,7 +12542,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12548
12542
; RV64ZVE32F-NEXT: vmv.x.s a2, v9
12549
12543
; RV64ZVE32F-NEXT: add a2, a0, a2
12550
12544
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12551
- ; RV64ZVE32F-NEXT: li a3, 32
12552
12545
; RV64ZVE32F-NEXT: vmv.s.x v9, a2
12553
12546
; RV64ZVE32F-NEXT: vsetivli zero, 14, e8, m1, tu, ma
12554
12547
; RV64ZVE32F-NEXT: vslideup.vi v10, v9, 13
@@ -12572,7 +12565,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12572
12565
; RV64ZVE32F-NEXT: vmv.x.s a2, v9
12573
12566
; RV64ZVE32F-NEXT: add a2, a0, a2
12574
12567
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12575
- ; RV64ZVE32F-NEXT: li a3, 32
12576
12568
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12577
12569
; RV64ZVE32F-NEXT: vsetivli zero, 18, e8, m2, tu, ma
12578
12570
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 17
@@ -12610,7 +12602,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12610
12602
; RV64ZVE32F-NEXT: vmv.x.s a2, v12
12611
12603
; RV64ZVE32F-NEXT: add a2, a0, a2
12612
12604
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12613
- ; RV64ZVE32F-NEXT: li a3, 32
12614
12605
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12615
12606
; RV64ZVE32F-NEXT: vsetivli zero, 22, e8, m2, tu, ma
12616
12607
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 21
@@ -12634,7 +12625,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12634
12625
; RV64ZVE32F-NEXT: vmv.x.s a2, v9
12635
12626
; RV64ZVE32F-NEXT: add a2, a0, a2
12636
12627
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12637
- ; RV64ZVE32F-NEXT: li a3, 32
12638
12628
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12639
12629
; RV64ZVE32F-NEXT: vsetivli zero, 26, e8, m2, tu, ma
12640
12630
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 25
@@ -12660,7 +12650,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12660
12650
; RV64ZVE32F-NEXT: vmv.x.s a2, v8
12661
12651
; RV64ZVE32F-NEXT: add a2, a0, a2
12662
12652
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12663
- ; RV64ZVE32F-NEXT: li a3, 32
12664
12653
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12665
12654
; RV64ZVE32F-NEXT: vsetivli zero, 30, e8, m2, tu, ma
12666
12655
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 29
@@ -12673,7 +12662,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12673
12662
; RV64ZVE32F-NEXT: vmv.x.s a2, v8
12674
12663
; RV64ZVE32F-NEXT: add a2, a0, a2
12675
12664
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12676
- ; RV64ZVE32F-NEXT: li a3, 32
12677
12665
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12678
12666
; RV64ZVE32F-NEXT: vsetivli zero, 31, e8, m2, tu, ma
12679
12667
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 30
@@ -12698,7 +12686,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12698
12686
; RV64ZVE32F-NEXT: vmv.x.s a2, v12
12699
12687
; RV64ZVE32F-NEXT: add a2, a0, a2
12700
12688
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12701
- ; RV64ZVE32F-NEXT: li a3, 32
12702
12689
; RV64ZVE32F-NEXT: vmv.s.x v14, a2
12703
12690
; RV64ZVE32F-NEXT: vsetivli zero, 3, e8, m1, tu, ma
12704
12691
; RV64ZVE32F-NEXT: vslideup.vi v10, v14, 2
@@ -12710,7 +12697,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12710
12697
; RV64ZVE32F-NEXT: vmv.x.s a2, v12
12711
12698
; RV64ZVE32F-NEXT: add a2, a0, a2
12712
12699
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12713
- ; RV64ZVE32F-NEXT: li a3, 32
12714
12700
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12715
12701
; RV64ZVE32F-NEXT: vsetivli zero, 4, e8, m1, tu, ma
12716
12702
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 3
@@ -12721,7 +12707,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12721
12707
; RV64ZVE32F-NEXT: vmv.x.s a2, v13
12722
12708
; RV64ZVE32F-NEXT: add a2, a0, a2
12723
12709
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12724
- ; RV64ZVE32F-NEXT: li a3, 32
12725
12710
; RV64ZVE32F-NEXT: vmv.s.x v14, a2
12726
12711
; RV64ZVE32F-NEXT: vsetivli zero, 7, e8, m1, tu, ma
12727
12712
; RV64ZVE32F-NEXT: vslideup.vi v10, v14, 6
@@ -12733,7 +12718,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12733
12718
; RV64ZVE32F-NEXT: vmv.x.s a2, v13
12734
12719
; RV64ZVE32F-NEXT: add a2, a0, a2
12735
12720
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12736
- ; RV64ZVE32F-NEXT: li a3, 32
12737
12721
; RV64ZVE32F-NEXT: vmv.s.x v13, a2
12738
12722
; RV64ZVE32F-NEXT: vsetivli zero, 8, e8, m1, tu, ma
12739
12723
; RV64ZVE32F-NEXT: vslideup.vi v10, v13, 7
@@ -12756,7 +12740,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12756
12740
; RV64ZVE32F-NEXT: vmv.x.s a2, v9
12757
12741
; RV64ZVE32F-NEXT: add a2, a0, a2
12758
12742
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12759
- ; RV64ZVE32F-NEXT: li a3, 32
12760
12743
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12761
12744
; RV64ZVE32F-NEXT: vsetivli zero, 15, e8, m1, tu, ma
12762
12745
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 14
@@ -12768,7 +12751,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12768
12751
; RV64ZVE32F-NEXT: vmv.x.s a2, v9
12769
12752
; RV64ZVE32F-NEXT: add a2, a0, a2
12770
12753
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12771
- ; RV64ZVE32F-NEXT: li a3, 32
12772
12754
; RV64ZVE32F-NEXT: vmv.s.x v9, a2
12773
12755
; RV64ZVE32F-NEXT: vsetivli zero, 16, e8, m1, tu, ma
12774
12756
; RV64ZVE32F-NEXT: vslideup.vi v10, v9, 15
@@ -12791,7 +12773,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12791
12773
; RV64ZVE32F-NEXT: vmv.x.s a2, v12
12792
12774
; RV64ZVE32F-NEXT: add a2, a0, a2
12793
12775
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12794
- ; RV64ZVE32F-NEXT: li a3, 32
12795
12776
; RV64ZVE32F-NEXT: vmv.s.x v14, a2
12796
12777
; RV64ZVE32F-NEXT: vsetivli zero, 19, e8, m2, tu, ma
12797
12778
; RV64ZVE32F-NEXT: vslideup.vi v10, v14, 18
@@ -12803,7 +12784,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12803
12784
; RV64ZVE32F-NEXT: vmv.x.s a2, v12
12804
12785
; RV64ZVE32F-NEXT: add a2, a0, a2
12805
12786
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12806
- ; RV64ZVE32F-NEXT: li a3, 32
12807
12787
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12808
12788
; RV64ZVE32F-NEXT: vsetivli zero, 20, e8, m2, tu, ma
12809
12789
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 19
@@ -12814,7 +12794,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12814
12794
; RV64ZVE32F-NEXT: vmv.x.s a2, v9
12815
12795
; RV64ZVE32F-NEXT: add a2, a0, a2
12816
12796
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12817
- ; RV64ZVE32F-NEXT: li a3, 32
12818
12797
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12819
12798
; RV64ZVE32F-NEXT: vsetivli zero, 23, e8, m2, tu, ma
12820
12799
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 22
@@ -12826,7 +12805,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12826
12805
; RV64ZVE32F-NEXT: vmv.x.s a2, v9
12827
12806
; RV64ZVE32F-NEXT: add a2, a0, a2
12828
12807
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12829
- ; RV64ZVE32F-NEXT: li a3, 32
12830
12808
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12831
12809
; RV64ZVE32F-NEXT: vsetivli zero, 24, e8, m2, tu, ma
12832
12810
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 23
@@ -12849,7 +12827,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12849
12827
; RV64ZVE32F-NEXT: vmv.x.s a2, v8
12850
12828
; RV64ZVE32F-NEXT: add a2, a0, a2
12851
12829
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12852
- ; RV64ZVE32F-NEXT: li a3, 32
12853
12830
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12854
12831
; RV64ZVE32F-NEXT: vsetivli zero, 27, e8, m2, tu, ma
12855
12832
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 26
@@ -12861,7 +12838,6 @@ define <32 x i8> @mgather_baseidx_v32i8(ptr %base, <32 x i8> %idxs, <32 x i1> %m
12861
12838
; RV64ZVE32F-NEXT: vmv.x.s a2, v8
12862
12839
; RV64ZVE32F-NEXT: add a2, a0, a2
12863
12840
; RV64ZVE32F-NEXT: lbu a2, 0(a2)
12864
- ; RV64ZVE32F-NEXT: li a3, 32
12865
12841
; RV64ZVE32F-NEXT: vmv.s.x v12, a2
12866
12842
; RV64ZVE32F-NEXT: vsetivli zero, 28, e8, m2, tu, ma
12867
12843
; RV64ZVE32F-NEXT: vslideup.vi v10, v12, 27
0 commit comments