struct page *page;
        phys_addr_t paddr;
        void *kvaddr;
-       bool need_coh = !(attrs & DMA_ATTR_NON_CONSISTENT);
 
        /*
         * __GFP_HIGHMEM flag is cleared by upper layer functions
         * A coherent buffer needs MMU mapping to enforce non-cachability.
         * kvaddr is kernel Virtual address (0x7000_0000 based).
         */
-       if (need_coh) {
-               kvaddr = ioremap_nocache(paddr, size);
-               if (kvaddr == NULL) {
-                       __free_pages(page, order);
-                       return NULL;
-               }
-       } else {
-               kvaddr = (void *)(u32)paddr;
+       kvaddr = ioremap_nocache(paddr, size);
+       if (kvaddr == NULL) {
+               __free_pages(page, order);
+               return NULL;
        }
 
        /*
         * Currently flush_cache_vmap nukes the L1 cache completely which
         * will be optimized as a separate commit
         */
-       if (need_coh)
-               dma_cache_wback_inv(paddr, size);
-
+       dma_cache_wback_inv(paddr, size);
        return kvaddr;
 }
 
        phys_addr_t paddr = dma_handle;
        struct page *page = virt_to_page(paddr);
 
-       if (!(attrs & DMA_ATTR_NON_CONSISTENT))
-               iounmap((void __force __iomem *)vaddr);
-
+       iounmap((void __force __iomem *)vaddr);
        __free_pages(page, get_order(size));
 }