@@ -1638,9 +1638,8 @@ define <vscale x 1 x i64> @vmadd_vx_nxv1i64(<vscale x 1 x i64> %a, i64 %b, <vsca
1638
1638
; RV32-NEXT: sw a0, 8(sp)
1639
1639
; RV32-NEXT: sw a1, 12(sp)
1640
1640
; RV32-NEXT: addi a0, sp, 8
1641
- ; RV32-NEXT: vsetvli a1, zero, e64, m1, ta, ma
1642
- ; RV32-NEXT: vlse64.v v10, (a0), zero
1643
1641
; RV32-NEXT: vsetvli zero, a2, e64, m1, ta, ma
1642
+ ; RV32-NEXT: vlse64.v v10, (a0), zero
1644
1643
; RV32-NEXT: vmadd.vv v10, v8, v9
1645
1644
; RV32-NEXT: vsetvli zero, zero, e64, m1, tu, ma
1646
1645
; RV32-NEXT: vmerge.vvm v8, v8, v10, v0
@@ -1669,9 +1668,8 @@ define <vscale x 1 x i64> @vmadd_vx_nxv1i64_unmasked(<vscale x 1 x i64> %a, i64
1669
1668
; RV32-NEXT: sw a0, 8(sp)
1670
1669
; RV32-NEXT: sw a1, 12(sp)
1671
1670
; RV32-NEXT: addi a0, sp, 8
1672
- ; RV32-NEXT: vsetvli a1, zero, e64, m1, ta, ma
1673
- ; RV32-NEXT: vlse64.v v10, (a0), zero
1674
1671
; RV32-NEXT: vsetvli zero, a2, e64, m1, ta, ma
1672
+ ; RV32-NEXT: vlse64.v v10, (a0), zero
1675
1673
; RV32-NEXT: vmadd.vv v10, v8, v9
1676
1674
; RV32-NEXT: vsetvli zero, zero, e64, m1, tu, ma
1677
1675
; RV32-NEXT: vmv.v.v v8, v10
@@ -1713,9 +1711,8 @@ define <vscale x 1 x i64> @vmadd_vx_nxv1i64_ta(<vscale x 1 x i64> %a, i64 %b, <v
1713
1711
; RV32-NEXT: sw a0, 8(sp)
1714
1712
; RV32-NEXT: sw a1, 12(sp)
1715
1713
; RV32-NEXT: addi a0, sp, 8
1716
- ; RV32-NEXT: vsetvli a1, zero, e64, m1, ta, ma
1717
- ; RV32-NEXT: vlse64.v v10, (a0), zero
1718
1714
; RV32-NEXT: vsetvli zero, a2, e64, m1, ta, ma
1715
+ ; RV32-NEXT: vlse64.v v10, (a0), zero
1719
1716
; RV32-NEXT: vmadd.vv v10, v8, v9
1720
1717
; RV32-NEXT: vmerge.vvm v8, v8, v10, v0
1721
1718
; RV32-NEXT: addi sp, sp, 16
@@ -1776,9 +1773,8 @@ define <vscale x 2 x i64> @vmadd_vx_nxv2i64(<vscale x 2 x i64> %a, i64 %b, <vsca
1776
1773
; RV32-NEXT: sw a0, 8(sp)
1777
1774
; RV32-NEXT: sw a1, 12(sp)
1778
1775
; RV32-NEXT: addi a0, sp, 8
1779
- ; RV32-NEXT: vsetvli a1, zero, e64, m2, ta, ma
1780
- ; RV32-NEXT: vlse64.v v12, (a0), zero
1781
1776
; RV32-NEXT: vsetvli zero, a2, e64, m2, ta, ma
1777
+ ; RV32-NEXT: vlse64.v v12, (a0), zero
1782
1778
; RV32-NEXT: vmadd.vv v12, v8, v10
1783
1779
; RV32-NEXT: vsetvli zero, zero, e64, m2, tu, ma
1784
1780
; RV32-NEXT: vmerge.vvm v8, v8, v12, v0
@@ -1807,9 +1803,8 @@ define <vscale x 2 x i64> @vmadd_vx_nxv2i64_unmasked(<vscale x 2 x i64> %a, i64
1807
1803
; RV32-NEXT: sw a0, 8(sp)
1808
1804
; RV32-NEXT: sw a1, 12(sp)
1809
1805
; RV32-NEXT: addi a0, sp, 8
1810
- ; RV32-NEXT: vsetvli a1, zero, e64, m2, ta, ma
1811
- ; RV32-NEXT: vlse64.v v12, (a0), zero
1812
1806
; RV32-NEXT: vsetvli zero, a2, e64, m2, ta, ma
1807
+ ; RV32-NEXT: vlse64.v v12, (a0), zero
1813
1808
; RV32-NEXT: vmadd.vv v12, v8, v10
1814
1809
; RV32-NEXT: vsetvli zero, zero, e64, m2, tu, ma
1815
1810
; RV32-NEXT: vmv.v.v v8, v12
@@ -1851,9 +1846,8 @@ define <vscale x 2 x i64> @vmadd_vx_nxv2i64_ta(<vscale x 2 x i64> %a, i64 %b, <v
1851
1846
; RV32-NEXT: sw a0, 8(sp)
1852
1847
; RV32-NEXT: sw a1, 12(sp)
1853
1848
; RV32-NEXT: addi a0, sp, 8
1854
- ; RV32-NEXT: vsetvli a1, zero, e64, m2, ta, ma
1855
- ; RV32-NEXT: vlse64.v v12, (a0), zero
1856
1849
; RV32-NEXT: vsetvli zero, a2, e64, m2, ta, ma
1850
+ ; RV32-NEXT: vlse64.v v12, (a0), zero
1857
1851
; RV32-NEXT: vmadd.vv v12, v8, v10
1858
1852
; RV32-NEXT: vmerge.vvm v8, v8, v12, v0
1859
1853
; RV32-NEXT: addi sp, sp, 16
@@ -1914,9 +1908,8 @@ define <vscale x 4 x i64> @vmadd_vx_nxv4i64(<vscale x 4 x i64> %a, i64 %b, <vsca
1914
1908
; RV32-NEXT: sw a0, 8(sp)
1915
1909
; RV32-NEXT: sw a1, 12(sp)
1916
1910
; RV32-NEXT: addi a0, sp, 8
1917
- ; RV32-NEXT: vsetvli a1, zero, e64, m4, ta, ma
1918
- ; RV32-NEXT: vlse64.v v16, (a0), zero
1919
1911
; RV32-NEXT: vsetvli zero, a2, e64, m4, ta, ma
1912
+ ; RV32-NEXT: vlse64.v v16, (a0), zero
1920
1913
; RV32-NEXT: vmadd.vv v16, v8, v12
1921
1914
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, ma
1922
1915
; RV32-NEXT: vmerge.vvm v8, v8, v16, v0
@@ -1945,9 +1938,8 @@ define <vscale x 4 x i64> @vmadd_vx_nxv4i64_unmasked(<vscale x 4 x i64> %a, i64
1945
1938
; RV32-NEXT: sw a0, 8(sp)
1946
1939
; RV32-NEXT: sw a1, 12(sp)
1947
1940
; RV32-NEXT: addi a0, sp, 8
1948
- ; RV32-NEXT: vsetvli a1, zero, e64, m4, ta, ma
1949
- ; RV32-NEXT: vlse64.v v16, (a0), zero
1950
1941
; RV32-NEXT: vsetvli zero, a2, e64, m4, ta, ma
1942
+ ; RV32-NEXT: vlse64.v v16, (a0), zero
1951
1943
; RV32-NEXT: vmadd.vv v16, v8, v12
1952
1944
; RV32-NEXT: vsetvli zero, zero, e64, m4, tu, ma
1953
1945
; RV32-NEXT: vmv.v.v v8, v16
@@ -1989,9 +1981,8 @@ define <vscale x 4 x i64> @vmadd_vx_nxv4i64_ta(<vscale x 4 x i64> %a, i64 %b, <v
1989
1981
; RV32-NEXT: sw a0, 8(sp)
1990
1982
; RV32-NEXT: sw a1, 12(sp)
1991
1983
; RV32-NEXT: addi a0, sp, 8
1992
- ; RV32-NEXT: vsetvli a1, zero, e64, m4, ta, ma
1993
- ; RV32-NEXT: vlse64.v v16, (a0), zero
1994
1984
; RV32-NEXT: vsetvli zero, a2, e64, m4, ta, ma
1985
+ ; RV32-NEXT: vlse64.v v16, (a0), zero
1995
1986
; RV32-NEXT: vmadd.vv v16, v8, v12
1996
1987
; RV32-NEXT: vmerge.vvm v8, v8, v16, v0
1997
1988
; RV32-NEXT: addi sp, sp, 16
@@ -2054,9 +2045,8 @@ define <vscale x 8 x i64> @vmadd_vx_nxv8i64(<vscale x 8 x i64> %a, i64 %b, <vsca
2054
2045
; RV32-NEXT: sw a0, 8(sp)
2055
2046
; RV32-NEXT: sw a1, 12(sp)
2056
2047
; RV32-NEXT: addi a0, sp, 8
2057
- ; RV32-NEXT: vsetvli a1, zero, e64, m8, ta, ma
2058
- ; RV32-NEXT: vlse64.v v24, (a0), zero
2059
2048
; RV32-NEXT: vsetvli zero, a2, e64, m8, ta, ma
2049
+ ; RV32-NEXT: vlse64.v v24, (a0), zero
2060
2050
; RV32-NEXT: vmadd.vv v24, v8, v16
2061
2051
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, ma
2062
2052
; RV32-NEXT: vmerge.vvm v8, v8, v24, v0
@@ -2085,9 +2075,8 @@ define <vscale x 8 x i64> @vmadd_vx_nxv8i64_unmasked(<vscale x 8 x i64> %a, i64
2085
2075
; RV32-NEXT: sw a0, 8(sp)
2086
2076
; RV32-NEXT: sw a1, 12(sp)
2087
2077
; RV32-NEXT: addi a0, sp, 8
2088
- ; RV32-NEXT: vsetvli a1, zero, e64, m8, ta, ma
2089
- ; RV32-NEXT: vlse64.v v24, (a0), zero
2090
2078
; RV32-NEXT: vsetvli zero, a2, e64, m8, ta, ma
2079
+ ; RV32-NEXT: vlse64.v v24, (a0), zero
2091
2080
; RV32-NEXT: vmadd.vv v24, v8, v16
2092
2081
; RV32-NEXT: vsetvli zero, zero, e64, m8, tu, ma
2093
2082
; RV32-NEXT: vmv.v.v v8, v24
@@ -2130,9 +2119,8 @@ define <vscale x 8 x i64> @vmadd_vx_nxv8i64_ta(<vscale x 8 x i64> %a, i64 %b, <v
2130
2119
; RV32-NEXT: sw a0, 8(sp)
2131
2120
; RV32-NEXT: sw a1, 12(sp)
2132
2121
; RV32-NEXT: addi a0, sp, 8
2133
- ; RV32-NEXT: vsetvli a1, zero, e64, m8, ta, ma
2134
- ; RV32-NEXT: vlse64.v v24, (a0), zero
2135
2122
; RV32-NEXT: vsetvli zero, a2, e64, m8, ta, ma
2123
+ ; RV32-NEXT: vlse64.v v24, (a0), zero
2136
2124
; RV32-NEXT: vmadd.vv v24, v8, v16
2137
2125
; RV32-NEXT: vmerge.vvm v8, v8, v24, v0
2138
2126
; RV32-NEXT: addi sp, sp, 16
0 commit comments