OSDN Git Service

mt76: rename mt76_tx_queue_skb in mt76_dma_tx_queue_skb
authorLorenzo Bianconi <lorenzo.bianconi@redhat.com>
Tue, 31 Jul 2018 08:09:10 +0000 (10:09 +0200)
committerKalle Valo <kvalo@codeaurora.org>
Thu, 2 Aug 2018 18:48:01 +0000 (21:48 +0300)
Move mt76_dma_tx_queue_skb routine in dma.c.
Remove static qualifier from mt76_get_txwi definition

Signed-off-by: Lorenzo Bianconi <lorenzo.bianconi@redhat.com>
Signed-off-by: Kalle Valo <kvalo@codeaurora.org>
drivers/net/wireless/mediatek/mt76/dma.c
drivers/net/wireless/mediatek/mt76/mt76.h
drivers/net/wireless/mediatek/mt76/mt76x2_tx.c
drivers/net/wireless/mediatek/mt76/tx.c

index 872b1c5..6293f21 100644 (file)
@@ -239,6 +239,80 @@ mt76_dma_kick_queue(struct mt76_dev *dev, struct mt76_queue *q)
        iowrite32(q->head, &q->regs->cpu_idx);
 }
 
+int mt76_dma_tx_queue_skb(struct mt76_dev *dev, struct mt76_queue *q,
+                         struct sk_buff *skb, struct mt76_wcid *wcid,
+                         struct ieee80211_sta *sta)
+{
+       struct mt76_queue_entry e;
+       struct mt76_txwi_cache *t;
+       struct mt76_queue_buf buf[32];
+       struct sk_buff *iter;
+       dma_addr_t addr;
+       int len;
+       u32 tx_info = 0;
+       int n, ret;
+
+       t = mt76_get_txwi(dev);
+       if (!t) {
+               ieee80211_free_txskb(dev->hw, skb);
+               return -ENOMEM;
+       }
+
+       dma_sync_single_for_cpu(dev->dev, t->dma_addr, sizeof(t->txwi),
+                               DMA_TO_DEVICE);
+       ret = dev->drv->tx_prepare_skb(dev, &t->txwi, skb, q, wcid, sta,
+                                      &tx_info);
+       dma_sync_single_for_device(dev->dev, t->dma_addr, sizeof(t->txwi),
+                                  DMA_TO_DEVICE);
+       if (ret < 0)
+               goto free;
+
+       len = skb->len - skb->data_len;
+       addr = dma_map_single(dev->dev, skb->data, len, DMA_TO_DEVICE);
+       if (dma_mapping_error(dev->dev, addr)) {
+               ret = -ENOMEM;
+               goto free;
+       }
+
+       n = 0;
+       buf[n].addr = t->dma_addr;
+       buf[n++].len = dev->drv->txwi_size;
+       buf[n].addr = addr;
+       buf[n++].len = len;
+
+       skb_walk_frags(skb, iter) {
+               if (n == ARRAY_SIZE(buf))
+                       goto unmap;
+
+               addr = dma_map_single(dev->dev, iter->data, iter->len,
+                                     DMA_TO_DEVICE);
+               if (dma_mapping_error(dev->dev, addr))
+                       goto unmap;
+
+               buf[n].addr = addr;
+               buf[n++].len = iter->len;
+       }
+
+       if (q->queued + (n + 1) / 2 >= q->ndesc - 1)
+               goto unmap;
+
+       return dev->queue_ops->add_buf(dev, q, buf, n, tx_info, skb, t);
+
+unmap:
+       ret = -ENOMEM;
+       for (n--; n > 0; n--)
+               dma_unmap_single(dev->dev, buf[n].addr, buf[n].len,
+                                DMA_TO_DEVICE);
+
+free:
+       e.skb = skb;
+       e.txwi = t;
+       dev->drv->tx_complete_skb(dev, q, &e, true);
+       mt76_put_txwi(dev, t);
+       return ret;
+}
+EXPORT_SYMBOL_GPL(mt76_dma_tx_queue_skb);
+
 static int
 mt76_dma_rx_fill(struct mt76_dev *dev, struct mt76_queue *q, bool napi)
 {
index eb0fd60..4d6660b 100644 (file)
@@ -421,9 +421,9 @@ wcid_to_sta(struct mt76_wcid *wcid)
        return container_of(ptr, struct ieee80211_sta, drv_priv);
 }
 
-int mt76_tx_queue_skb(struct mt76_dev *dev, struct mt76_queue *q,
-                     struct sk_buff *skb, struct mt76_wcid *wcid,
-                     struct ieee80211_sta *sta);
+int mt76_dma_tx_queue_skb(struct mt76_dev *dev, struct mt76_queue *q,
+                         struct sk_buff *skb, struct mt76_wcid *wcid,
+                         struct ieee80211_sta *sta);
 
 void mt76_rx(struct mt76_dev *dev, enum mt76_rxq_id q, struct sk_buff *skb);
 void mt76_tx(struct mt76_dev *dev, struct ieee80211_sta *sta,
@@ -454,6 +454,7 @@ void mt76_wcid_key_setup(struct mt76_dev *dev, struct mt76_wcid *wcid,
 
 /* internal */
 void mt76_tx_free(struct mt76_dev *dev);
+struct mt76_txwi_cache *mt76_get_txwi(struct mt76_dev *dev);
 void mt76_put_txwi(struct mt76_dev *dev, struct mt76_txwi_cache *t);
 void mt76_rx_complete(struct mt76_dev *dev, struct sk_buff_head *frames,
                      struct napi_struct *napi);
index 241a151..84a3448 100644 (file)
@@ -289,7 +289,8 @@ void mt76x2_pre_tbtt_tasklet(unsigned long arg)
                struct ieee80211_vif *vif = info->control.vif;
                struct mt76x2_vif *mvif = (struct mt76x2_vif *) vif->drv_priv;
 
-               mt76_tx_queue_skb(&dev->mt76, q, skb, &mvif->group_wcid, NULL);
+               mt76_dma_tx_queue_skb(&dev->mt76, q, skb, &mvif->group_wcid,
+                                     NULL);
        }
        spin_unlock_bh(&q->lock);
 }
index e969567..f86501e 100644 (file)
@@ -51,7 +51,7 @@ __mt76_get_txwi(struct mt76_dev *dev)
        return t;
 }
 
-static struct mt76_txwi_cache *
+struct mt76_txwi_cache *
 mt76_get_txwi(struct mt76_dev *dev)
 {
        struct mt76_txwi_cache *t = __mt76_get_txwi(dev);
@@ -91,80 +91,6 @@ mt76_txq_get_qid(struct ieee80211_txq *txq)
        return txq->ac;
 }
 
-int mt76_tx_queue_skb(struct mt76_dev *dev, struct mt76_queue *q,
-                     struct sk_buff *skb, struct mt76_wcid *wcid,
-                     struct ieee80211_sta *sta)
-{
-       struct mt76_queue_entry e;
-       struct mt76_txwi_cache *t;
-       struct mt76_queue_buf buf[32];
-       struct sk_buff *iter;
-       dma_addr_t addr;
-       int len;
-       u32 tx_info = 0;
-       int n, ret;
-
-       t = mt76_get_txwi(dev);
-       if (!t) {
-               ieee80211_free_txskb(dev->hw, skb);
-               return -ENOMEM;
-       }
-
-       dma_sync_single_for_cpu(dev->dev, t->dma_addr, sizeof(t->txwi),
-                               DMA_TO_DEVICE);
-       ret = dev->drv->tx_prepare_skb(dev, &t->txwi, skb, q, wcid, sta,
-                                      &tx_info);
-       dma_sync_single_for_device(dev->dev, t->dma_addr, sizeof(t->txwi),
-                                  DMA_TO_DEVICE);
-       if (ret < 0)
-               goto free;
-
-       len = skb->len - skb->data_len;
-       addr = dma_map_single(dev->dev, skb->data, len, DMA_TO_DEVICE);
-       if (dma_mapping_error(dev->dev, addr)) {
-               ret = -ENOMEM;
-               goto free;
-       }
-
-       n = 0;
-       buf[n].addr = t->dma_addr;
-       buf[n++].len = dev->drv->txwi_size;
-       buf[n].addr = addr;
-       buf[n++].len = len;
-
-       skb_walk_frags(skb, iter) {
-               if (n == ARRAY_SIZE(buf))
-                       goto unmap;
-
-               addr = dma_map_single(dev->dev, iter->data, iter->len,
-                                     DMA_TO_DEVICE);
-               if (dma_mapping_error(dev->dev, addr))
-                       goto unmap;
-
-               buf[n].addr = addr;
-               buf[n++].len = iter->len;
-       }
-
-       if (q->queued + (n + 1) / 2 >= q->ndesc - 1)
-               goto unmap;
-
-       return dev->queue_ops->add_buf(dev, q, buf, n, tx_info, skb, t);
-
-unmap:
-       ret = -ENOMEM;
-       for (n--; n > 0; n--)
-               dma_unmap_single(dev->dev, buf[n].addr, buf[n].len,
-                                DMA_TO_DEVICE);
-
-free:
-       e.skb = skb;
-       e.txwi = t;
-       dev->drv->tx_complete_skb(dev, q, &e, true);
-       mt76_put_txwi(dev, t);
-       return ret;
-}
-EXPORT_SYMBOL_GPL(mt76_tx_queue_skb);
-
 void
 mt76_tx(struct mt76_dev *dev, struct ieee80211_sta *sta,
        struct mt76_wcid *wcid, struct sk_buff *skb)
@@ -185,7 +111,7 @@ mt76_tx(struct mt76_dev *dev, struct ieee80211_sta *sta,
        q = &dev->q_tx[qid];
 
        spin_lock_bh(&q->lock);
-       mt76_tx_queue_skb(dev, q, skb, wcid, sta);
+       mt76_dma_tx_queue_skb(dev, q, skb, wcid, sta);
        dev->queue_ops->kick(dev, q);
 
        if (q->queued > q->ndesc - 8)
@@ -241,7 +167,7 @@ mt76_queue_ps_skb(struct mt76_dev *dev, struct ieee80211_sta *sta,
                info->flags |= IEEE80211_TX_STATUS_EOSP;
 
        mt76_skb_set_moredata(skb, !last);
-       mt76_tx_queue_skb(dev, hwq, skb, wcid, sta);
+       mt76_dma_tx_queue_skb(dev, hwq, skb, wcid, sta);
 }
 
 void
@@ -321,7 +247,7 @@ mt76_txq_send_burst(struct mt76_dev *dev, struct mt76_queue *hwq,
        if (ampdu)
                mt76_check_agg_ssn(mtxq, skb);
 
-       idx = mt76_tx_queue_skb(dev, hwq, skb, wcid, txq->sta);
+       idx = mt76_dma_tx_queue_skb(dev, hwq, skb, wcid, txq->sta);
 
        if (idx < 0)
                return idx;
@@ -356,7 +282,7 @@ mt76_txq_send_burst(struct mt76_dev *dev, struct mt76_queue *hwq,
                if (cur_ampdu)
                        mt76_check_agg_ssn(mtxq, skb);
 
-               idx = mt76_tx_queue_skb(dev, hwq, skb, wcid, txq->sta);
+               idx = mt76_dma_tx_queue_skb(dev, hwq, skb, wcid, txq->sta);
                if (idx < 0)
                        return idx;