#include <linux/kexec.h>
 #include <linux/i8253.h>
 #include <linux/random.h>
-#include <linux/swiotlb.h>
 #include <asm/processor.h>
 #include <asm/hypervisor.h>
 #include <asm/hyperv-tlfs.h>
                pr_info("Hyper-V: Isolation Config: Group A 0x%x, Group B 0x%x\n",
                        ms_hyperv.isolation_config_a, ms_hyperv.isolation_config_b);
 
-               if (hv_get_isolation_type() == HV_ISOLATION_TYPE_SNP) {
+               if (hv_get_isolation_type() == HV_ISOLATION_TYPE_SNP)
                        static_branch_enable(&isolation_type_snp);
-#ifdef CONFIG_SWIOTLB
-                       swiotlb_unencrypted_base = ms_hyperv.shared_gpa_boundary;
-#endif
-               }
        }
 
        if (hv_max_functions_eax >= HYPERV_CPUID_NESTED_FEATURES) {
 
 
 struct io_tlb_mem io_tlb_default_mem;
 
-phys_addr_t swiotlb_unencrypted_base;
-
 static unsigned long default_nslabs = IO_TLB_DEFAULT_SIZE >> IO_TLB_SHIFT;
 static unsigned long default_nareas;
 
        return DIV_ROUND_UP(val, IO_TLB_SIZE);
 }
 
-/*
- * Remap swioltb memory in the unencrypted physical address space
- * when swiotlb_unencrypted_base is set. (e.g. for Hyper-V AMD SEV-SNP
- * Isolation VMs).
- */
-#ifdef CONFIG_HAS_IOMEM
-static void *swiotlb_mem_remap(struct io_tlb_mem *mem, unsigned long bytes)
-{
-       void *vaddr = NULL;
-
-       if (swiotlb_unencrypted_base) {
-               phys_addr_t paddr = mem->start + swiotlb_unencrypted_base;
-
-               vaddr = memremap(paddr, bytes, MEMREMAP_WB);
-               if (!vaddr)
-                       pr_err("Failed to map the unencrypted memory %pa size %lx.\n",
-                              &paddr, bytes);
-       }
-
-       return vaddr;
-}
-#else
-static void *swiotlb_mem_remap(struct io_tlb_mem *mem, unsigned long bytes)
-{
-       return NULL;
-}
-#endif
-
 /*
  * Early SWIOTLB allocation may be too early to allow an architecture to
  * perform the desired operations.  This function allows the architecture to
 void __init swiotlb_update_mem_attributes(void)
 {
        struct io_tlb_mem *mem = &io_tlb_default_mem;
-       void *vaddr;
        unsigned long bytes;
 
        if (!mem->nslabs || mem->late_alloc)
                return;
-       vaddr = phys_to_virt(mem->start);
        bytes = PAGE_ALIGN(mem->nslabs << IO_TLB_SHIFT);
-       set_memory_decrypted((unsigned long)vaddr, bytes >> PAGE_SHIFT);
-
-       mem->vaddr = swiotlb_mem_remap(mem, bytes);
-       if (!mem->vaddr)
-               mem->vaddr = vaddr;
+       set_memory_decrypted((unsigned long)mem->vaddr, bytes >> PAGE_SHIFT);
 }
 
 static void swiotlb_init_io_tlb_mem(struct io_tlb_mem *mem, phys_addr_t start,
                mem->slots[i].alloc_size = 0;
        }
 
-       /*
-        * If swiotlb_unencrypted_base is set, the bounce buffer memory will
-        * be remapped and cleared in swiotlb_update_mem_attributes.
-        */
-       if (swiotlb_unencrypted_base)
-               return;
-
        memset(vaddr, 0, bytes);
        mem->vaddr = vaddr;
        return;