/*
  * Jump to the relocated address.
  */
-       leal    relocated(%ebx), %eax
+       leal    .Lrelocated(%ebx), %eax
        jmp     *%eax
 ENDPROC(startup_32)
 
 #endif
 
        .text
-relocated:
+.Lrelocated:
 
 /*
  * Clear BSS (stack is currently empty)
 
 
        call    verify_cpu
        testl   %eax, %eax
-       jnz     no_longmode
+       jnz     .Lno_longmode
 
 /*
  * Compute the delta between where we were compiled to run at
 1:     popq    %rdi
        subq    $1b, %rdi
 
-       call    adjust_got
+       call    .Ladjust_got
 
        /*
         * At this point we are in long mode with 4-level paging enabled,
 
        /* The new adjustment is the relocation address */
        movq    %rbx, %rdi
-       call    adjust_got
+       call    .Ladjust_got
 
 /*
  * Copy the compressed kernel to the end of our buffer
 /*
  * Jump to the relocated address.
  */
-       leaq    relocated(%rbx), %rax
+       leaq    .Lrelocated(%rbx), %rax
        jmp     *%rax
 
 #ifdef CONFIG_EFI_STUB
 #endif
 
        .text
-relocated:
+.Lrelocated:
 
 /*
  * Clear BSS (stack is currently empty)
  * first time we touch GOT).
  * RDI is the new adjustment to apply.
  */
-adjust_got:
+.Ladjust_got:
        /* Walk through the GOT adding the address to the entries */
        leaq    _got(%rip), %rdx
        leaq    _egot(%rip), %rcx
        movl    %eax, %cr4
 
        /* Calculate address of paging_enabled() once we are executing in the trampoline */
-       leal    paging_enabled - trampoline_32bit_src + TRAMPOLINE_32BIT_CODE_OFFSET(%ecx), %eax
+       leal    .Lpaging_enabled - trampoline_32bit_src + TRAMPOLINE_32BIT_CODE_OFFSET(%ecx), %eax
 
        /* Prepare the stack for far return to Long Mode */
        pushl   $__KERNEL_CS
        lret
 
        .code64
-paging_enabled:
+.Lpaging_enabled:
        /* Return from the trampoline */
        jmp     *%rdi
 
        .org    trampoline_32bit_src + TRAMPOLINE_32BIT_CODE_SIZE
 
        .code32
-no_longmode:
+.Lno_longmode:
        /* This isn't an x86-64 CPU, so hang intentionally, we cannot continue */
 1:
        hlt
 
 ENDPROC(native_load_gs_index)
 EXPORT_SYMBOL(native_load_gs_index)
 
-       _ASM_EXTABLE(.Lgs_change, bad_gs)
+       _ASM_EXTABLE(.Lgs_change, .Lbad_gs)
        .section .fixup, "ax"
        /* running with kernelgs */
-bad_gs:
+.Lbad_gs:
        SWAPGS                                  /* switch back to user gs */
 .macro ZAP_GS
        /* This can't be a string because the preprocessor needs to see it. */
 
 102:
        .section .fixup,"ax"
 103:   addl %ecx,%edx                  /* ecx is zerorest also */
-       jmp copy_user_handle_tail
+       jmp .Lcopy_user_handle_tail
        .previous
 
        _ASM_EXTABLE_UA(100b, 103b)
 40:    leal (%rdx,%rcx,8),%edx
        jmp 60f
 50:    movl %ecx,%edx
-60:    jmp copy_user_handle_tail /* ecx is zerorest also */
+60:    jmp .Lcopy_user_handle_tail /* ecx is zerorest also */
        .previous
 
        _ASM_EXTABLE_UA(1b, 30b)
        .section .fixup,"ax"
 11:    leal (%rdx,%rcx,8),%ecx
 12:    movl %ecx,%edx          /* ecx is zerorest also */
-       jmp copy_user_handle_tail
+       jmp .Lcopy_user_handle_tail
        .previous
 
        _ASM_EXTABLE_UA(1b, 11b)
 
        .section .fixup,"ax"
 12:    movl %ecx,%edx          /* ecx is zerorest also */
-       jmp copy_user_handle_tail
+       jmp .Lcopy_user_handle_tail
        .previous
 
        _ASM_EXTABLE_UA(1b, 12b)
  * eax uncopied bytes or 0 if successful.
  */
 ALIGN;
-copy_user_handle_tail:
+.Lcopy_user_handle_tail:
        movl %edx,%ecx
 1:     rep movsb
 2:     mov %ecx,%eax
        ret
 
        _ASM_EXTABLE_UA(1b, 2b)
-END(copy_user_handle_tail)
+END(.Lcopy_user_handle_tail)
 
 /*
  * copy_user_nocache - Uncached memory copy with exception handling
        movl %ecx,%edx
 .L_fixup_handle_tail:
        sfence
-       jmp copy_user_handle_tail
+       jmp .Lcopy_user_handle_tail
        .previous
 
        _ASM_EXTABLE_UA(1b, .L_fixup_4x8b_copy)
 
 EXPORT_SYMBOL(__get_user_8)
 
 
-bad_get_user_clac:
+.Lbad_get_user_clac:
        ASM_CLAC
 bad_get_user:
        xor %edx,%edx
        ret
 
 #ifdef CONFIG_X86_32
-bad_get_user_8_clac:
+.Lbad_get_user_8_clac:
        ASM_CLAC
 bad_get_user_8:
        xor %edx,%edx
        ret
 #endif
 
-       _ASM_EXTABLE_UA(1b, bad_get_user_clac)
-       _ASM_EXTABLE_UA(2b, bad_get_user_clac)
-       _ASM_EXTABLE_UA(3b, bad_get_user_clac)
+       _ASM_EXTABLE_UA(1b, .Lbad_get_user_clac)
+       _ASM_EXTABLE_UA(2b, .Lbad_get_user_clac)
+       _ASM_EXTABLE_UA(3b, .Lbad_get_user_clac)
 #ifdef CONFIG_X86_64
-       _ASM_EXTABLE_UA(4b, bad_get_user_clac)
+       _ASM_EXTABLE_UA(4b, .Lbad_get_user_clac)
 #else
-       _ASM_EXTABLE_UA(4b, bad_get_user_8_clac)
-       _ASM_EXTABLE_UA(5b, bad_get_user_8_clac)
+       _ASM_EXTABLE_UA(4b, .Lbad_get_user_8_clac)
+       _ASM_EXTABLE_UA(5b, .Lbad_get_user_8_clac)
 #endif
 
 ENTRY(__put_user_1)
        ENTER
        cmp TASK_addr_limit(%_ASM_BX),%_ASM_CX
-       jae bad_put_user
+       jae .Lbad_put_user
        ASM_STAC
 1:     movb %al,(%_ASM_CX)
        xor %eax,%eax
        mov TASK_addr_limit(%_ASM_BX),%_ASM_BX
        sub $1,%_ASM_BX
        cmp %_ASM_BX,%_ASM_CX
-       jae bad_put_user
+       jae .Lbad_put_user
        ASM_STAC
 2:     movw %ax,(%_ASM_CX)
        xor %eax,%eax
        mov TASK_addr_limit(%_ASM_BX),%_ASM_BX
        sub $3,%_ASM_BX
        cmp %_ASM_BX,%_ASM_CX
-       jae bad_put_user
+       jae .Lbad_put_user
        ASM_STAC
 3:     movl %eax,(%_ASM_CX)
        xor %eax,%eax
        mov TASK_addr_limit(%_ASM_BX),%_ASM_BX
        sub $7,%_ASM_BX
        cmp %_ASM_BX,%_ASM_CX
-       jae bad_put_user
+       jae .Lbad_put_user
        ASM_STAC
 4:     mov %_ASM_AX,(%_ASM_CX)
 #ifdef CONFIG_X86_32
 ENDPROC(__put_user_8)
 EXPORT_SYMBOL(__put_user_8)
 
-bad_put_user_clac:
+.Lbad_put_user_clac:
        ASM_CLAC
-bad_put_user:
+.Lbad_put_user:
        movl $-EFAULT,%eax
        RET
 
-       _ASM_EXTABLE_UA(1b, bad_put_user_clac)
-       _ASM_EXTABLE_UA(2b, bad_put_user_clac)
-       _ASM_EXTABLE_UA(3b, bad_put_user_clac)
-       _ASM_EXTABLE_UA(4b, bad_put_user_clac)
+       _ASM_EXTABLE_UA(1b, .Lbad_put_user_clac)
+       _ASM_EXTABLE_UA(2b, .Lbad_put_user_clac)
+       _ASM_EXTABLE_UA(3b, .Lbad_put_user_clac)
+       _ASM_EXTABLE_UA(4b, .Lbad_put_user_clac)
 #ifdef CONFIG_X86_32
-       _ASM_EXTABLE_UA(5b, bad_put_user_clac)
+       _ASM_EXTABLE_UA(5b, .Lbad_put_user_clac)
 #endif