size_t padding_size;
 
                aligned_size = iova_align(iovad, size);
-               phys = swiotlb_tbl_map_single(dev, phys, size,
-                                             aligned_size, dir, attrs);
+               phys = swiotlb_tbl_map_single(dev, phys, size, aligned_size,
+                                             iova_mask(iovad), dir, attrs);
 
                if (phys == DMA_MAPPING_ERROR)
                        return DMA_MAPPING_ERROR;
 
         */
        trace_swiotlb_bounced(dev, dev_addr, size, swiotlb_force);
 
-       map = swiotlb_tbl_map_single(dev, phys, size, size, dir, attrs);
+       map = swiotlb_tbl_map_single(dev, phys, size, size, 0, dir, attrs);
        if (map == (phys_addr_t)DMA_MAPPING_ERROR)
                return DMA_MAPPING_ERROR;
 
 
  * allocate a buffer from that IO TLB pool.
  */
 static int swiotlb_find_slots(struct device *dev, phys_addr_t orig_addr,
-                             size_t alloc_size)
+                             size_t alloc_size, unsigned int alloc_align_mask)
 {
        struct io_tlb_mem *mem = dev->dma_io_tlb_mem;
        unsigned long boundary_mask = dma_get_seg_boundary(dev);
        stride = (iotlb_align_mask >> IO_TLB_SHIFT) + 1;
        if (alloc_size >= PAGE_SIZE)
                stride = max(stride, stride << (PAGE_SHIFT - IO_TLB_SHIFT));
+       stride = max(stride, (alloc_align_mask >> IO_TLB_SHIFT) + 1);
 
        spin_lock_irqsave(&mem->lock, flags);
        if (unlikely(nslots > mem->nslabs - mem->used))
 
 phys_addr_t swiotlb_tbl_map_single(struct device *dev, phys_addr_t orig_addr,
                size_t mapping_size, size_t alloc_size,
-               enum dma_data_direction dir, unsigned long attrs)
+               unsigned int alloc_align_mask, enum dma_data_direction dir,
+               unsigned long attrs)
 {
        struct io_tlb_mem *mem = dev->dma_io_tlb_mem;
        unsigned int offset = swiotlb_align_offset(dev, orig_addr);
                return (phys_addr_t)DMA_MAPPING_ERROR;
        }
 
-       index = swiotlb_find_slots(dev, orig_addr, alloc_size + offset);
+       index = swiotlb_find_slots(dev, orig_addr,
+                                  alloc_size + offset, alloc_align_mask);
        if (index == -1) {
                if (!(attrs & DMA_ATTR_NO_WARN))
                        dev_warn_ratelimited(dev,
        trace_swiotlb_bounced(dev, phys_to_dma(dev, paddr), size,
                              swiotlb_force);
 
-       swiotlb_addr = swiotlb_tbl_map_single(dev, paddr, size, size, dir,
+       swiotlb_addr = swiotlb_tbl_map_single(dev, paddr, size, size, 0, dir,
                        attrs);
        if (swiotlb_addr == (phys_addr_t)DMA_MAPPING_ERROR)
                return DMA_MAPPING_ERROR;
        if (!mem)
                return NULL;
 
-       index = swiotlb_find_slots(dev, 0, size);
+       index = swiotlb_find_slots(dev, 0, size, 0);
        if (index == -1)
                return NULL;