mm: swap: convert mark_page_lazyfree() to folio_mark_lazyfree()
authorKefeng Wang <wangkefeng.wang@huawei.com>
Fri, 9 Dec 2022 02:06:18 +0000 (10:06 +0800)
committerAndrew Morton <akpm@linux-foundation.org>
Thu, 19 Jan 2023 01:12:42 +0000 (17:12 -0800)
mark_page_lazyfree() and the callers are converted to use folio, this
rename and make it to take in a folio argument instead of calling
page_folio().

Link: https://lkml.kernel.org/r/20221209020618.190306-1-wangkefeng.wang@huawei.com
Signed-off-by: Kefeng Wang <wangkefeng.wang@huawei.com>
Reviewed-by: Vishal Moola (Oracle) <vishal.moola@gmail.com>
Cc: Matthew Wilcox (Oracle) <willy@infradead.org>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
include/linux/swap.h
mm/huge_memory.c
mm/madvise.c
mm/swap.c

index 2787b84eaf12f76b9b16059300d7b84d41ddab00..93f1cebd85454ebe5468929249816c0042d50e90 100644 (file)
@@ -402,7 +402,7 @@ extern void lru_add_drain_cpu(int cpu);
 extern void lru_add_drain_cpu_zone(struct zone *zone);
 extern void lru_add_drain_all(void);
 extern void deactivate_page(struct page *page);
-extern void mark_page_lazyfree(struct page *page);
+void folio_mark_lazyfree(struct folio *folio);
 extern void swap_setup(void);
 
 extern void lru_cache_add_inactive_or_unevictable(struct page *page,
index 3de266e0aeb2ee25df1eaf5cb0929bece8e52bbf..266c4b5579463c177d8e9407e9eae6d45cad7037 100644 (file)
@@ -1660,7 +1660,7 @@ bool madvise_free_huge_pmd(struct mmu_gather *tlb, struct vm_area_struct *vma,
                tlb_remove_pmd_tlb_entry(tlb, pmd, addr);
        }
 
-       mark_page_lazyfree(&folio->page);
+       folio_mark_lazyfree(folio);
        ret = true;
 out:
        spin_unlock(ptl);
index b6ea204d4e23bdf862db9d0eb804c09c6286d45e..479d9a32e44a9455940d4b7939c3cb7a2fd49962 100644 (file)
@@ -728,7 +728,7 @@ static int madvise_free_pte_range(pmd_t *pmd, unsigned long addr,
                        set_pte_at(mm, addr, pte, ptent);
                        tlb_remove_tlb_entry(tlb, pte, addr);
                }
-               mark_page_lazyfree(&folio->page);
+               folio_mark_lazyfree(folio);
        }
 out:
        if (nr_swap) {
index 70e2063ef43addbf12e5bd4f9768171912a9dd11..5e5eba18693031f9470fab515c223829c4218c02 100644 (file)
--- a/mm/swap.c
+++ b/mm/swap.c
@@ -757,16 +757,14 @@ void deactivate_page(struct page *page)
 }
 
 /**
- * mark_page_lazyfree - make an anon page lazyfree
- * @page: page to deactivate
+ * folio_mark_lazyfree - make an anon folio lazyfree
+ * @folio: folio to deactivate
  *
- * mark_page_lazyfree() moves @page to the inactive file list.
- * This is done to accelerate the reclaim of @page.
+ * folio_mark_lazyfree() moves @folio to the inactive file list.
+ * This is done to accelerate the reclaim of @folio.
  */
-void mark_page_lazyfree(struct page *page)
+void folio_mark_lazyfree(struct folio *folio)
 {
-       struct folio *folio = page_folio(page);
-
        if (folio_test_lru(folio) && folio_test_anon(folio) &&
            folio_test_swapbacked(folio) && !folio_test_swapcache(folio) &&
            !folio_test_unevictable(folio)) {