return 0;
 }
 
-int mt76_dma_tx_queue_skb(struct mt76_dev *dev, enum mt76_txq_id qid,
-                         struct sk_buff *skb, struct mt76_wcid *wcid,
-                         struct ieee80211_sta *sta)
+static int
+mt76_dma_tx_queue_skb(struct mt76_dev *dev, enum mt76_txq_id qid,
+                     struct sk_buff *skb, struct mt76_wcid *wcid,
+                     struct ieee80211_sta *sta)
 {
        struct mt76_queue *q = dev->q_tx[qid].q;
        struct mt76_tx_info tx_info = {};
        mt76_put_txwi(dev, t);
        return ret;
 }
-EXPORT_SYMBOL_GPL(mt76_dma_tx_queue_skb);
 
 static int
 mt76_dma_rx_fill(struct mt76_dev *dev, struct mt76_queue *q)
 
 #define mt76_init_queues(dev)          (dev)->mt76.queue_ops->init(&((dev)->mt76))
 #define mt76_queue_alloc(dev, ...)     (dev)->mt76.queue_ops->alloc(&((dev)->mt76), __VA_ARGS__)
 #define mt76_tx_queue_skb_raw(dev, ...)        (dev)->mt76.queue_ops->tx_queue_skb_raw(&((dev)->mt76), __VA_ARGS__)
+#define mt76_tx_queue_skb(dev, ...)    (dev)->mt76.queue_ops->tx_queue_skb(&((dev)->mt76), __VA_ARGS__)
 #define mt76_queue_rx_reset(dev, ...)  (dev)->mt76.queue_ops->rx_reset(&((dev)->mt76), __VA_ARGS__)
 #define mt76_queue_tx_cleanup(dev, ...)        (dev)->mt76.queue_ops->tx_cleanup(&((dev)->mt76), __VA_ARGS__)
 #define mt76_queue_kick(dev, ...)      (dev)->mt76.queue_ops->kick(&((dev)->mt76), __VA_ARGS__)
        return ((void *) IEEE80211_SKB_CB(skb)->status.status_driver_data);
 }
 
-int mt76_dma_tx_queue_skb(struct mt76_dev *dev, enum mt76_txq_id qid,
-                         struct sk_buff *skb, struct mt76_wcid *wcid,
-                         struct ieee80211_sta *sta);
-
 static inline void mt76_insert_hdr_pad(struct sk_buff *skb)
 {
        int len = ieee80211_get_hdrlen_from_skb(skb);
 
        if (!skb)
                return;
 
-       mt76_dma_tx_queue_skb(&dev->mt76, MT_TXQ_BEACON, skb,
-                             &mvif->sta.wcid, NULL);
+       mt76_tx_queue_skb(dev, MT_TXQ_BEACON, skb, &mvif->sta.wcid, NULL);
 
        spin_lock_bh(&dev->ps_lock);
        mt76_wr(dev, MT_DMA_FQCR0, MT_DMA_FQCR0_BUSY |
                struct ieee80211_vif *vif = info->control.vif;
                struct mt7603_vif *mvif = (struct mt7603_vif *)vif->drv_priv;
 
-               mt76_dma_tx_queue_skb(&dev->mt76, MT_TXQ_CAB, skb,
-                                     &mvif->sta.wcid, NULL);
+               mt76_tx_queue_skb(dev, MT_TXQ_CAB, skb, &mvif->sta.wcid, NULL);
        }
        mt76_queue_kick(dev, q);
        spin_unlock_bh(&q->lock);
 
                struct ieee80211_vif *vif = info->control.vif;
                struct mt76x02_vif *mvif = (struct mt76x02_vif *)vif->drv_priv;
 
-               mt76_dma_tx_queue_skb(&dev->mt76, MT_TXQ_PSD, skb,
-                                     &mvif->group_wcid, NULL);
+               mt76_tx_queue_skb(dev, MT_TXQ_PSD, skb, &mvif->group_wcid,
+                                 NULL);
        }
        spin_unlock_bh(&q->lock);
 }