kfree(tx_ring->tcb_ring);
 }
 
+#define MAX_TX_DESC_PER_PKT 24
+
 /* nic_send_packet - NIC specific send handler for version B silicon. */
 static int nic_send_packet(struct et131x_adapter *adapter, struct tcb *tcb)
 {
        u32 i;
-       struct tx_desc desc[24];
+       struct tx_desc desc[MAX_TX_DESC_PER_PKT];
        u32 frag = 0;
        u32 thiscopy, remainder;
        struct sk_buff *skb = tcb->skb;
         * more than 5 fragments.
         */
 
-       /* nr_frags should be no more than 18. */
-       BUILD_BUG_ON(MAX_SKB_FRAGS + 1 > 23);
-
        memset(desc, 0, sizeof(struct tx_desc) * (nr_frags + 1));
 
        for (i = 0; i < nr_frags; i++) {
        struct et131x_adapter *adapter = netdev_priv(netdev);
        struct tx_ring *tx_ring = &adapter->tx_ring;
 
+       /* This driver does not support TSO, it is very unlikely
+        * this condition is true.
+        */
+       if (unlikely(skb_shinfo(skb)->nr_frags > MAX_TX_DESC_PER_PKT - 2)) {
+               if (skb_linearize(skb))
+                       goto drop_err;
+       }
        /* stop the queue if it's getting full */
        if (tx_ring->used >= NUM_TCB - 1 && !netif_queue_stopped(netdev))
                netif_stop_queue(netdev);