#define mmBIF_MMSCH1_DOORBELL_RANGE            0x01d8
 #define mmBIF_MMSCH1_DOORBELL_RANGE_BASE_IDX   2
 
+#define smnPCIE_LC_LINK_WIDTH_CNTL             0x11140288
+
 static void nbio_v2_3_remap_hdp_registers(struct amdgpu_device *adev)
 {
        WREG32_SOC15(NBIO, 0, mmREMAP_HDP_MEM_FLUSH_CNTL,
                WREG32_PCIE(smnPCIE_LC_CNTL3, data);
 }
 
+static void nbio_v2_3_apply_lc_spc_mode_wa(struct amdgpu_device *adev)
+{
+       uint32_t reg_data = 0;
+       uint32_t link_width = 0;
+
+       if (!((adev->asic_type >= CHIP_NAVI10) &&
+            (adev->asic_type <= CHIP_NAVI12)))
+               return;
+
+       reg_data = RREG32_PCIE(smnPCIE_LC_LINK_WIDTH_CNTL);
+       link_width = (reg_data & PCIE_LC_LINK_WIDTH_CNTL__LC_LINK_WIDTH_RD_MASK)
+               >> PCIE_LC_LINK_WIDTH_CNTL__LC_LINK_WIDTH_RD__SHIFT;
+
+       /*
+        * Program PCIE_LC_CNTL6.LC_SPC_MODE_8GT to 0x2 (4 symbols per clock data)
+        * if link_width is 0x3 (x4)
+        */
+       if (0x3 == link_width) {
+               reg_data = RREG32_PCIE(smnPCIE_LC_CNTL6);
+               reg_data &= ~PCIE_LC_CNTL6__LC_SPC_MODE_8GT_MASK;
+               reg_data |= (0x2 << PCIE_LC_CNTL6__LC_SPC_MODE_8GT__SHIFT);
+               WREG32_PCIE(smnPCIE_LC_CNTL6, reg_data);
+       }
+}
+
 const struct amdgpu_nbio_funcs nbio_v2_3_funcs = {
        .get_hdp_flush_req_offset = nbio_v2_3_get_hdp_flush_req_offset,
        .get_hdp_flush_done_offset = nbio_v2_3_get_hdp_flush_done_offset,
        .remap_hdp_registers = nbio_v2_3_remap_hdp_registers,
        .enable_aspm = nbio_v2_3_enable_aspm,
        .program_aspm =  nbio_v2_3_program_aspm,
+       .apply_lc_spc_mode_wa = nbio_v2_3_apply_lc_spc_mode_wa,
 };