int ql_sem_spinlock(struct ql_adapter *qdev, u32 sem_mask)
 {
        unsigned int wait_count = 30;
+
        do {
                if (!ql_sem_trylock(qdev, sem_mask))
                        return 0;
                          struct tx_ring_desc *tx_ring_desc, int mapped)
 {
        int i;
+
        for (i = 0; i < mapped; i++) {
                if (i == 0 || (i == 7 && mapped > 7)) {
                        /*
         */
        for (frag_idx = 0; frag_idx < frag_cnt; frag_idx++, map_idx++) {
                skb_frag_t *frag = &skb_shinfo(skb)->frags[frag_idx];
+
                tbd++;
                if (frag_idx == 6 && frag_cnt > 7) {
                        /* Let's tack on an sglist.
                                (ib_mac_rsp->flags3 & IB_MAC_IOCB_RSP_V4)) {
                        /* Unfragmented ipv4 UDP frame. */
                        struct iphdr *iph = (struct iphdr *) skb->data;
+
                        if (!(iph->frag_off &
                                htons(IP_MF|IP_OFFSET))) {
                                skb->ip_summed = CHECKSUM_UNNECESSARY;
                 *          eventually be in trouble.
                 */
                int size, i = 0;
+
                sbq_desc = qlge_get_curr_buf(&rx_ring->sbq);
                pci_unmap_single(qdev->pdev, sbq_desc->dma_addr,
                                 SMALL_BUF_MAP_SIZE, PCI_DMA_FROMDEVICE);
                                (ib_mac_rsp->flags3 & IB_MAC_IOCB_RSP_V4)) {
                /* Unfragmented ipv4 UDP frame. */
                        struct iphdr *iph = (struct iphdr *) skb->data;
+
                        if (!(iph->frag_off &
                                htons(IP_MF|IP_OFFSET))) {
                                skb->ip_summed = CHECKSUM_UNNECESSARY;
 static irqreturn_t qlge_msix_rx_isr(int irq, void *dev_id)
 {
        struct rx_ring *rx_ring = dev_id;
+
        napi_schedule(&rx_ring->napi);
        return IRQ_HANDLED;
 }
                mac_iocb_ptr->flags2 |= OB_MAC_TSO_IOCB_LSO;
                if (likely(l3_proto == htons(ETH_P_IP))) {
                        struct iphdr *iph = ip_hdr(skb);
+
                        iph->check = 0;
                        mac_iocb_ptr->flags1 |= OB_MAC_TSO_IOCB_IP4;
                        tcp_hdr(skb)->check = ~csum_tcpudp_magic(iph->saddr,
        int len;
        struct iphdr *iph = ip_hdr(skb);
        __sum16 *check;
+
        mac_iocb_ptr->opcode = OPCODE_OB_MAC_TSO_IOCB;
        mac_iocb_ptr->frame_len = cpu_to_le32((u32) skb->len);
        mac_iocb_ptr->net_trans_offset =
 static void qlge_tx_timeout(struct net_device *ndev, unsigned int txqueue)
 {
        struct ql_adapter *qdev = netdev_priv(ndev);
+
        ql_queue_asic_error(qdev);
 }
 
        struct ql_adapter *qdev =
            container_of(work, struct ql_adapter, asic_reset_work.work);
        int status;
+
        rtnl_lock();
        status = ql_adapter_down(qdev);
        if (status)
 static int ql_get_board_info(struct ql_adapter *qdev)
 {
        int status;
+
        qdev->func =
            (ql_read32(qdev, STS) & STS_FUNC_ID_MASK) >> STS_FUNC_ID_SHIFT;
        if (qdev->func > 3)
 {
        struct net_device *ndev = pci_get_drvdata(pdev);
        struct ql_adapter *qdev = netdev_priv(ndev);
+
        del_timer_sync(&qdev->timer);
        ql_cancel_all_work_sync(qdev);
        unregister_netdev(ndev);