#define MLX5E_KLM_ENTRIES_PER_WQE(wqe_size)\
        ALIGN_DOWN(MLX5E_KLM_MAX_ENTRIES_PER_WQE(wqe_size), MLX5_UMR_KLM_ALIGNMENT)
 
-#define MLX5E_MAX_KLM_PER_WQE \
-       MLX5E_KLM_ENTRIES_PER_WQE(MLX5E_TX_MPW_MAX_NUM_DS << MLX5_MKEY_BSF_OCTO_SIZE)
+#define MLX5E_MAX_KLM_PER_WQE(mdev) \
+       MLX5E_KLM_ENTRIES_PER_WQE(mlx5e_get_sw_max_sq_mpw_wqebbs(mlx5e_get_max_sq_wqebbs(mdev)) \
+                                  << MLX5_MKEY_BSF_OCTO_SIZE)
 
 #define MLX5E_MSG_LEVEL                        NETIF_MSG_LINK
 
                     MLX5_CAP_GEN(mdev, max_wqe_sz_sq) / MLX5_SEND_WQE_BB);
 }
 
+static inline u16 mlx5e_get_sw_max_sq_mpw_wqebbs(u16 max_sq_wqebbs)
+{
+/* The return value will be multiplied by MLX5_SEND_WQEBB_NUM_DS.
+ * Since max_sq_wqebbs may be up to MLX5_SEND_WQE_MAX_WQEBBS == 16,
+ * see mlx5e_get_max_sq_wqebbs(), the multiplication (16 * 4 == 64)
+ * overflows the 6-bit DS field of Ctrl Segment. Use a bound lower
+ * than MLX5_SEND_WQE_MAX_WQEBBS to let a full-session WQE be
+ * cache-aligned.
+ */
+#if L1_CACHE_BYTES < 128
+       return min_t(u16, max_sq_wqebbs, MLX5_SEND_WQE_MAX_WQEBBS - 1);
+#else
+       return min_t(u16, max_sq_wqebbs, MLX5_SEND_WQE_MAX_WQEBBS - 2);
+#endif
+}
+
 struct mlx5e_tx_wqe {
        struct mlx5_wqe_ctrl_seg ctrl;
        struct mlx5_wqe_eth_seg  eth;
        struct netdev_queue       *txq;
        u32                        sqn;
        u16                        stop_room;
+       u16                        max_sq_mpw_wqebbs;
        u8                         min_inline_mode;
        struct device             *pdev;
        __be32                     mkey_be;
        struct device             *pdev;
        __be32                     mkey_be;
        u16                        stop_room;
+       u16                        max_sq_mpw_wqebbs;
        u8                         min_inline_mode;
        unsigned long              state;
        unsigned int               hw_mtu;
 
        int wq_size = BIT(MLX5_GET(wq, wqc, log_wq_sz));
        u32 wqebbs;
 
-       max_klm_per_umr = MLX5E_MAX_KLM_PER_WQE;
+       max_klm_per_umr = MLX5E_MAX_KLM_PER_WQE(mdev);
        max_hd_per_wqe = mlx5e_shampo_hd_per_wqe(mdev, params, rq_param);
        max_num_of_umr_per_wqe = max_hd_per_wqe / max_klm_per_umr;
        rest = max_hd_per_wqe % max_klm_per_umr;
 
 
 #define MLX5E_TX_WQE_EMPTY_DS_COUNT (sizeof(struct mlx5e_tx_wqe) / MLX5_SEND_WQE_DS)
 
-/* The mult of MLX5_SEND_WQE_MAX_WQEBBS * MLX5_SEND_WQEBB_NUM_DS
- * (16 * 4 == 64) does not fit in the 6-bit DS field of Ctrl Segment.
- * We use a bound lower that MLX5_SEND_WQE_MAX_WQEBBS to let a
- * full-session WQE be cache-aligned.
- */
-#if L1_CACHE_BYTES < 128
-#define MLX5E_TX_MPW_MAX_WQEBBS (MLX5_SEND_WQE_MAX_WQEBBS - 1)
-#else
-#define MLX5E_TX_MPW_MAX_WQEBBS (MLX5_SEND_WQE_MAX_WQEBBS - 2)
-#endif
-
-#define MLX5E_TX_MPW_MAX_NUM_DS (MLX5E_TX_MPW_MAX_WQEBBS * MLX5_SEND_WQEBB_NUM_DS)
-
 #define INL_HDR_START_SZ (sizeof(((struct mlx5_wqe_eth_seg *)NULL)->inline_hdr.start))
 
 #define MLX5E_RX_ERR_CQE(cqe) (get_cqe_opcode(cqe) != MLX5_CQE_RESP_SEND)
 void mlx5e_sq_xmit_simple(struct mlx5e_txqsq *sq, struct sk_buff *skb, bool xmit_more);
 void mlx5e_tx_mpwqe_ensure_complete(struct mlx5e_txqsq *sq);
 
-static inline bool mlx5e_tx_mpwqe_is_full(struct mlx5e_tx_mpwqe *session)
+static inline bool mlx5e_tx_mpwqe_is_full(struct mlx5e_tx_mpwqe *session, u8 max_sq_mpw_wqebbs)
 {
-       return session->ds_count == MLX5E_TX_MPW_MAX_NUM_DS;
+       return session->ds_count == max_sq_mpw_wqebbs * MLX5_SEND_WQEBB_NUM_DS;
 }
 
 static inline void mlx5e_rqwq_reset(struct mlx5e_rq *rq)
 
        struct mlx5e_tx_wqe *wqe;
        u16 pi;
 
-       pi = mlx5e_xdpsq_get_next_pi(sq, MLX5E_TX_MPW_MAX_WQEBBS);
+       pi = mlx5e_xdpsq_get_next_pi(sq, sq->max_sq_mpw_wqebbs);
        wqe = MLX5E_TX_FETCH_WQE(sq, pi);
        net_prefetchw(wqe->data);
 
 
        mlx5e_xdp_mpwqe_add_dseg(sq, xdptxd, stats);
 
-       if (unlikely(mlx5e_xdp_mpqwe_is_full(session)))
+       if (unlikely(mlx5e_xdp_mpqwe_is_full(session, sq->max_sq_mpw_wqebbs)))
                mlx5e_xdp_mpwqe_complete(sq);
 
        mlx5e_xdpi_fifo_push(&sq->db.xdpi_fifo, xdpi);
 
        return cur;
 }
 
-static inline bool mlx5e_xdp_mpqwe_is_full(struct mlx5e_tx_mpwqe *session)
+static inline bool mlx5e_xdp_mpqwe_is_full(struct mlx5e_tx_mpwqe *session, u8 max_sq_mpw_wqebbs)
 {
        if (session->inline_on)
                return session->ds_count + MLX5E_XDP_INLINE_WQE_MAX_DS_CNT >
-                      MLX5E_TX_MPW_MAX_NUM_DS;
-       return mlx5e_tx_mpwqe_is_full(session);
+                      max_sq_mpw_wqebbs * MLX5_SEND_WQEBB_NUM_DS;
+
+       return mlx5e_tx_mpwqe_is_full(session, max_sq_mpw_wqebbs);
 }
 
 struct mlx5e_xdp_wqe_info {
 
                        &c->priv->channel_stats[c->ix]->rq_xdpsq;
        sq->max_sq_wqebbs = mlx5e_get_max_sq_wqebbs(mdev);
        sq->stop_room = MLX5E_STOP_ROOM(sq->max_sq_wqebbs);
+       sq->max_sq_mpw_wqebbs = mlx5e_get_sw_max_sq_mpw_wqebbs(sq->max_sq_wqebbs);
 
        param->wq.db_numa_node = cpu_to_node(c->cpu);
        err = mlx5_wq_cyc_create(mdev, ¶m->wq, sqc_wq, wq, &sq->wq_ctrl);
        sq->min_inline_mode = params->tx_min_inline_mode;
        sq->hw_mtu    = MLX5E_SW2HW_MTU(params, params->sw_mtu);
        sq->max_sq_wqebbs = mlx5e_get_max_sq_wqebbs(mdev);
+       sq->max_sq_mpw_wqebbs = mlx5e_get_sw_max_sq_mpw_wqebbs(sq->max_sq_wqebbs);
        INIT_WORK(&sq->recover_work, mlx5e_tx_err_cqe_work);
        if (!MLX5_CAP_ETH(mdev, wqe_vlan_insert))
                set_bit(MLX5E_SQ_STATE_VLAN_NEED_L2_INLINE, &sq->state);
 
        struct mlx5e_icosq *sq = rq->icosq;
        int i, err, max_klm_entries, len;
 
-       max_klm_entries = MLX5E_MAX_KLM_PER_WQE;
+       max_klm_entries = MLX5E_MAX_KLM_PER_WQE(rq->mdev);
        klm_entries = bitmap_find_window(shampo->bitmap,
                                         shampo->hd_per_wqe,
                                         shampo->hd_per_wq, shampo->pi);
 
        struct mlx5e_tx_wqe *wqe;
        u16 pi;
 
-       pi = mlx5e_txqsq_get_next_pi(sq, MLX5E_TX_MPW_MAX_WQEBBS);
+       pi = mlx5e_txqsq_get_next_pi(sq, sq->max_sq_mpw_wqebbs);
        wqe = MLX5E_TX_FETCH_WQE(sq, pi);
        net_prefetchw(wqe->data);
 
 
        mlx5e_tx_skb_update_hwts_flags(skb);
 
-       if (unlikely(mlx5e_tx_mpwqe_is_full(&sq->mpwqe))) {
+       if (unlikely(mlx5e_tx_mpwqe_is_full(&sq->mpwqe, sq->max_sq_mpw_wqebbs))) {
                /* Might stop the queue and affect the retval of __netdev_tx_sent_queue. */
                cseg = mlx5e_tx_mpwqe_session_complete(sq);