@@ -67,7 +67,7 @@ define amdgpu_kernel void @uniform_conditional_min_long_forward_branch(ptr addrs
67
67
; GCN-NEXT: s_waitcnt lgkmcnt(0)
68
68
; GCN-NEXT: s_cmp_eq_u32 s2, 0
69
69
; GCN-NEXT: s_cbranch_scc0 .LBB1_1
70
- ; GCN-NEXT: .LBB1_3 : ; %bb0
70
+ ; GCN-NEXT: ; %bb.3 : ; %bb0
71
71
; GCN-NEXT: s_getpc_b64 s[4:5]
72
72
; GCN-NEXT: .Lpost_getpc0:
73
73
; GCN-NEXT: s_add_u32 s4, s4, (.LBB1_2-.Lpost_getpc0)&4294967295
@@ -115,7 +115,7 @@ define amdgpu_kernel void @uniform_conditional_min_long_forward_vcnd_branch(ptr
115
115
; GCN-NEXT: v_cmp_eq_f32_e64 s[4:5], s2, 0
116
116
; GCN-NEXT: s_and_b64 vcc, exec, s[4:5]
117
117
; GCN-NEXT: s_cbranch_vccz .LBB2_1
118
- ; GCN-NEXT: .LBB2_3 : ; %bb0
118
+ ; GCN-NEXT: ; %bb.3 : ; %bb0
119
119
; GCN-NEXT: s_getpc_b64 s[4:5]
120
120
; GCN-NEXT: .Lpost_getpc1:
121
121
; GCN-NEXT: s_add_u32 s4, s4, (.LBB2_2-.Lpost_getpc1)&4294967295
@@ -172,7 +172,7 @@ define amdgpu_kernel void @min_long_forward_vbranch(ptr addrspace(1) %arg) #0 {
172
172
; GCN-NEXT: v_cmp_ne_u32_e32 vcc, 0, v2
173
173
; GCN-NEXT: s_and_saveexec_b64 s[0:1], vcc
174
174
; GCN-NEXT: s_cbranch_execnz .LBB3_1
175
- ; GCN-NEXT: .LBB3_3 : ; %bb
175
+ ; GCN-NEXT: ; %bb.3 : ; %bb
176
176
; GCN-NEXT: s_getpc_b64 s[4:5]
177
177
; GCN-NEXT: .Lpost_getpc2:
178
178
; GCN-NEXT: s_add_u32 s4, s4, (.LBB3_2-.Lpost_getpc2)&4294967295
@@ -228,7 +228,7 @@ define amdgpu_kernel void @long_backward_sbranch(ptr addrspace(1) %arg) #0 {
228
228
; GCN-NEXT: v_nop_e64
229
229
; GCN-NEXT: ;;#ASMEND
230
230
; GCN-NEXT: s_cbranch_scc0 .LBB4_2
231
- ; GCN-NEXT: .LBB4_3 : ; %bb2
231
+ ; GCN-NEXT: ; %bb.3 : ; %bb2
232
232
; GCN-NEXT: ; in Loop: Header=BB4_1 Depth=1
233
233
; GCN-NEXT: s_getpc_b64 s[2:3]
234
234
; GCN-NEXT: .Lpost_getpc3:
@@ -266,7 +266,7 @@ define amdgpu_kernel void @uniform_unconditional_min_long_forward_branch(ptr add
266
266
; GCN-NEXT: s_cmp_eq_u32 s2, 0
267
267
; GCN-NEXT: s_mov_b64 s[2:3], -1
268
268
; GCN-NEXT: s_cbranch_scc0 .LBB5_1
269
- ; GCN-NEXT: .LBB5_7 : ; %bb0
269
+ ; GCN-NEXT: ; %bb.7 : ; %bb0
270
270
; GCN-NEXT: s_getpc_b64 s[2:3]
271
271
; GCN-NEXT: .Lpost_getpc5:
272
272
; GCN-NEXT: s_add_u32 s2, s2, (.LBB5_4-.Lpost_getpc5)&4294967295
@@ -299,7 +299,7 @@ define amdgpu_kernel void @uniform_unconditional_min_long_forward_branch(ptr add
299
299
; GCN-NEXT: v_nop_e64
300
300
; GCN-NEXT: ;;#ASMEND
301
301
; GCN-NEXT: s_cbranch_execnz .LBB5_5
302
- ; GCN-NEXT: .LBB5_9 : ; %bb3
302
+ ; GCN-NEXT: ; %bb.9 : ; %bb3
303
303
; GCN-NEXT: s_getpc_b64 s[2:3]
304
304
; GCN-NEXT: .Lpost_getpc6:
305
305
; GCN-NEXT: s_add_u32 s2, s2, (.LBB5_2-.Lpost_getpc6)&4294967295
@@ -347,7 +347,7 @@ define amdgpu_kernel void @uniform_unconditional_min_long_backward_branch(ptr ad
347
347
; GCN-NEXT: ;;#ASMEND
348
348
; GCN-NEXT: s_mov_b64 vcc, vcc
349
349
; GCN-NEXT: s_cbranch_vccz .LBB6_2
350
- ; GCN-NEXT: .LBB6_3 : ; %loop
350
+ ; GCN-NEXT: ; %bb.3 : ; %loop
351
351
; GCN-NEXT: ; in Loop: Header=BB6_1 Depth=1
352
352
; GCN-NEXT: s_getpc_b64 s[0:1]
353
353
; GCN-NEXT: .Lpost_getpc7:
@@ -389,7 +389,7 @@ define amdgpu_kernel void @expand_requires_expand(i32 %cond0) #0 {
389
389
; GCN-NEXT: .LBB7_2: ; %Flow
390
390
; GCN-NEXT: s_andn2_b64 vcc, exec, s[0:1]
391
391
; GCN-NEXT: s_cbranch_vccz .LBB7_3
392
- ; GCN-NEXT: .LBB7_5 : ; %Flow
392
+ ; GCN-NEXT: ; %bb.5 : ; %Flow
393
393
; GCN-NEXT: s_getpc_b64 s[0:1]
394
394
; GCN-NEXT: .Lpost_getpc8:
395
395
; GCN-NEXT: s_add_u32 s0, s0, (.LBB7_4-.Lpost_getpc8)&4294967295
@@ -446,7 +446,7 @@ define amdgpu_kernel void @uniform_inside_divergent(ptr addrspace(1) %out, i32 %
446
446
; GCN-NEXT: v_cmp_gt_u32_e32 vcc, 16, v0
447
447
; GCN-NEXT: s_and_saveexec_b64 s[4:5], vcc
448
448
; GCN-NEXT: s_cbranch_execnz .LBB8_1
449
- ; GCN-NEXT: .LBB8_4 : ; %entry
449
+ ; GCN-NEXT: ; %bb.4 : ; %entry
450
450
; GCN-NEXT: s_getpc_b64 s[0:1]
451
451
; GCN-NEXT: .Lpost_getpc9:
452
452
; GCN-NEXT: s_add_u32 s0, s0, (.LBB8_3-.Lpost_getpc9)&4294967295
@@ -512,7 +512,7 @@ define amdgpu_kernel void @analyze_mask_branch() #0 {
512
512
; GCN-NEXT: .LBB9_2: ; %Flow1
513
513
; GCN-NEXT: s_andn2_saveexec_b64 s[0:1], s[0:1]
514
514
; GCN-NEXT: s_cbranch_execnz .LBB9_3
515
- ; GCN-NEXT: .LBB9_6 : ; %Flow1
515
+ ; GCN-NEXT: ; %bb.6 : ; %Flow1
516
516
; GCN-NEXT: s_getpc_b64 s[0:1]
517
517
; GCN-NEXT: .Lpost_getpc10:
518
518
; GCN-NEXT: s_add_u32 s0, s0, (.LBB9_5-.Lpost_getpc10)&4294967295
@@ -534,7 +534,7 @@ define amdgpu_kernel void @analyze_mask_branch() #0 {
534
534
; GCN-NEXT: ;;#ASMEND
535
535
; GCN-NEXT: s_mov_b64 vcc, vcc
536
536
; GCN-NEXT: s_cbranch_vccnz .LBB9_5
537
- ; GCN-NEXT: .LBB9_8 : ; %loop
537
+ ; GCN-NEXT: ; %bb.8 : ; %loop
538
538
; GCN-NEXT: ; in Loop: Header=BB9_4 Depth=1
539
539
; GCN-NEXT: s_getpc_b64 s[0:1]
540
540
; GCN-NEXT: .Lpost_getpc11:
@@ -580,7 +580,7 @@ define amdgpu_kernel void @long_branch_hang(ptr addrspace(1) nocapture %arg, i32
580
580
; GCN-NEXT: s_cselect_b64 s[8:9], -1, 0
581
581
; GCN-NEXT: s_cmp_lt_i32 s7, 6
582
582
; GCN-NEXT: s_cbranch_scc1 .LBB10_1
583
- ; GCN-NEXT: .LBB10_8 : ; %bb
583
+ ; GCN-NEXT: ; %bb.8 : ; %bb
584
584
; GCN-NEXT: s_getpc_b64 s[8:9]
585
585
; GCN-NEXT: .Lpost_getpc12:
586
586
; GCN-NEXT: s_add_u32 s8, s8, (.LBB10_2-.Lpost_getpc12)&4294967295
@@ -606,7 +606,7 @@ define amdgpu_kernel void @long_branch_hang(ptr addrspace(1) nocapture %arg, i32
606
606
; GCN-NEXT: .LBB10_4: ; %Flow5
607
607
; GCN-NEXT: s_andn2_b64 vcc, exec, s[8:9]
608
608
; GCN-NEXT: s_cbranch_vccz .LBB10_5
609
- ; GCN-NEXT: .LBB10_10 : ; %Flow5
609
+ ; GCN-NEXT: ; %bb.10 : ; %Flow5
610
610
; GCN-NEXT: s_getpc_b64 s[2:3]
611
611
; GCN-NEXT: .Lpost_getpc13:
612
612
; GCN-NEXT: s_add_u32 s2, s2, (.LBB10_6-.Lpost_getpc13)&4294967295
0 commit comments