dma-direct: remove __dma_to_phys
authorChristoph Hellwig <hch@lst.de>
Tue, 8 Sep 2020 15:56:22 +0000 (17:56 +0200)
committerChristoph Hellwig <hch@lst.de>
Fri, 11 Sep 2020 07:14:25 +0000 (09:14 +0200)
There is no harm in just always clearing the SME encryption bit, while
significantly simplifying the interface.

Signed-off-by: Christoph Hellwig <hch@lst.de>
Reviewed-by: Robin Murphy <robin.murphy@arm.com>
13 files changed:
arch/arm/include/asm/dma-direct.h
arch/mips/bmips/dma.c
arch/mips/cavium-octeon/dma-octeon.c
arch/mips/include/asm/dma-direct.h
arch/mips/loongson2ef/fuloong-2e/dma.c
arch/mips/loongson2ef/lemote-2f/dma.c
arch/mips/loongson64/dma.c
arch/mips/pci/pci-ar2315.c
arch/mips/pci/pci-xtalk-bridge.c
arch/mips/sgi-ip32/ip32-dma.c
arch/powerpc/include/asm/dma-direct.h
include/linux/dma-direct.h
kernel/dma/direct.c

index 7c3001a6a775bf93a49a7e7f09cc4e96b5b4d760..a8cee87a93e8ab38f1734ffe9da5410c158ee88f 100644 (file)
@@ -8,7 +8,7 @@ static inline dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return pfn_to_dma(dev, __phys_to_pfn(paddr)) + offset;
 }
 
-static inline phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t dev_addr)
+static inline phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dev_addr)
 {
        unsigned int offset = dev_addr & ~PAGE_MASK;
        return __pfn_to_phys(dma_to_pfn(dev, dev_addr)) + offset;
index df56bf4179e347b46a42bc41793a70f490c9811f..ba2a5d33dfd3fa0d309a24de758d2fcf188a8f91 100644 (file)
@@ -52,7 +52,7 @@ dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t pa)
        return pa;
 }
 
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t dma_addr)
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dma_addr)
 {
        struct bmips_dma_range *r;
 
index 14ea680d180e07339ea8c9ff8baac144ea2cf364..388b13ba2558c2e939076789718637943848dbbc 100644 (file)
@@ -177,7 +177,7 @@ dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return paddr;
 }
 
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t daddr)
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t daddr)
 {
 #ifdef CONFIG_PCI
        if (dev && dev_is_pci(dev))
index 14e352651ce946745609dd2687eeb72d6fd49d75..8e178651c638c279fd74f431e08408fc0baaa9b8 100644 (file)
@@ -3,6 +3,6 @@
 #define _MIPS_DMA_DIRECT_H 1
 
 dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr);
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t daddr);
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t daddr);
 
 #endif /* _MIPS_DMA_DIRECT_H */
index e122292bf6660a166d9dbc0c1e53c780693822e7..83fadeb3fd7d56605b7615453e8a09c87fb62374 100644 (file)
@@ -6,7 +6,7 @@ dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return paddr | 0x80000000;
 }
 
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t dma_addr)
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dma_addr)
 {
        return dma_addr & 0x7fffffff;
 }
index abf0e39d7e469618b7c1d9b6f84bb46803a7b8cc..302b43a14eee74055812920bc0006d048f8b0162 100644 (file)
@@ -6,7 +6,7 @@ dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return paddr | 0x80000000;
 }
 
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t dma_addr)
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dma_addr)
 {
        if (dma_addr > 0x8fffffff)
                return dma_addr;
index dbfe6e82fddd1ce1e360109f8b3d3919426d4a9b..b3dc5d0bd2b113c4b6548d0c2d5cb531aa9223eb 100644 (file)
@@ -13,7 +13,7 @@ dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return ((nid << 44) ^ paddr) | (nid << node_id_offset);
 }
 
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t daddr)
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t daddr)
 {
        /* We extract 2bit node id (bit 44~47, only bit 44~45 used now) from
         * Loongson-3's 48bit address space and embed it into 40bit */
index 490953f515282af4776efb371dedfc72667b3335..d88395684f487df81c9e5d1bb39e32057aa68be1 100644 (file)
@@ -175,7 +175,7 @@ dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return paddr + ar2315_dev_offset(dev);
 }
 
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t dma_addr)
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dma_addr)
 {
        return dma_addr - ar2315_dev_offset(dev);
 }
index 9b3cc775c55e0581943ce3365307a4a545c91c6c..f1b37f32b55395f81e92ad2933c1c0c39986ab22 100644 (file)
@@ -33,7 +33,7 @@ dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return bc->baddr + paddr;
 }
 
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t dma_addr)
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dma_addr)
 {
        return dma_addr & ~(0xffUL << 56);
 }
index fa7b17cb53853ed04e7b452dbf3d19ba24a30005..160317294d97a93752348663a3de9fe93d66dfa6 100644 (file)
@@ -27,7 +27,7 @@ dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return dma_addr;
 }
 
-phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t dma_addr)
+phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dma_addr)
 {
        phys_addr_t paddr = dma_addr & RAM_OFFSET_MASK;
 
index abc154d784b078a3fb4f1151686439f274689622..95b09313d2a4cf78032f48bddba24f2f468265e7 100644 (file)
@@ -7,7 +7,7 @@ static inline dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return paddr + dev->archdata.dma_offset;
 }
 
-static inline phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t daddr)
+static inline phys_addr_t dma_to_phys(struct device *dev, dma_addr_t daddr)
 {
        return daddr - dev->archdata.dma_offset;
 }
index 20eceb2e4f91f83ccd495410f87add3bd1003be2..f00e262ab6b154ed74709588b2ab307eb69d4367 100644 (file)
@@ -24,11 +24,12 @@ static inline dma_addr_t __phys_to_dma(struct device *dev, phys_addr_t paddr)
        return dev_addr - ((dma_addr_t)dev->dma_pfn_offset << PAGE_SHIFT);
 }
 
-static inline phys_addr_t __dma_to_phys(struct device *dev, dma_addr_t dev_addr)
+static inline phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dev_addr)
 {
-       phys_addr_t paddr = (phys_addr_t)dev_addr;
+       phys_addr_t paddr = (phys_addr_t)dev_addr +
+               ((phys_addr_t)dev->dma_pfn_offset << PAGE_SHIFT);
 
-       return paddr + ((phys_addr_t)dev->dma_pfn_offset << PAGE_SHIFT);
+       return __sme_clr(paddr);
 }
 #endif /* !CONFIG_ARCH_HAS_PHYS_TO_DMA */
 
@@ -44,7 +45,7 @@ static inline bool force_dma_unencrypted(struct device *dev)
 /*
  * If memory encryption is supported, phys_to_dma will set the memory encryption
  * bit in the DMA address, and dma_to_phys will clear it.  The raw __phys_to_dma
- * and __dma_to_phys versions should only be used on non-encrypted memory for
+ * version should only be used on non-encrypted memory for
  * special occasions like DMA coherent buffers.
  */
 static inline dma_addr_t phys_to_dma(struct device *dev, phys_addr_t paddr)
@@ -52,11 +53,6 @@ static inline dma_addr_t phys_to_dma(struct device *dev, phys_addr_t paddr)
        return __sme_set(__phys_to_dma(dev, paddr));
 }
 
-static inline phys_addr_t dma_to_phys(struct device *dev, dma_addr_t daddr)
-{
-       return __sme_clr(__dma_to_phys(dev, daddr));
-}
-
 static inline bool dma_capable(struct device *dev, dma_addr_t addr, size_t size,
                bool is_ram)
 {
index 57a6e7d7cf8f16210aa9ebe3ed32796877246b18..bfb479c8a370fa7c5a594459502dce5a02db0c0b 100644 (file)
@@ -48,11 +48,6 @@ static gfp_t dma_direct_optimal_gfp_mask(struct device *dev, u64 dma_mask,
 {
        u64 dma_limit = min_not_zero(dma_mask, dev->bus_dma_limit);
 
-       if (force_dma_unencrypted(dev))
-               *phys_limit = __dma_to_phys(dev, dma_limit);
-       else
-               *phys_limit = dma_to_phys(dev, dma_limit);
-
        /*
         * Optimistically try the zone that the physical address mask falls
         * into first.  If that returns memory that isn't actually addressable
@@ -61,6 +56,7 @@ static gfp_t dma_direct_optimal_gfp_mask(struct device *dev, u64 dma_mask,
         * Note that GFP_DMA32 and GFP_DMA are no ops without the corresponding
         * zones.
         */
+       *phys_limit = dma_to_phys(dev, dma_limit);
        if (*phys_limit <= DMA_BIT_MASK(zone_dma_bits))
                return GFP_DMA;
        if (*phys_limit <= DMA_BIT_MASK(32))