kernel: backport list_count_nodes()
[openwrt/openwrt.git] / target / linux / generic / backport-5.15 / 020-v6.1-01-mm-x86-arm64-add-arch_has_hw_pte_young.patch
index 3bea44d8658e787ec3f277a5aa5c8c3dcb86a49c..73acadd804c0bfd7baf4b52ebde88ef333ea819d 100644 (file)
@@ -327,11 +327,9 @@ Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
  mm/memory.c                      | 14 +-------------
  4 files changed, 19 insertions(+), 28 deletions(-)
 
-diff --git a/arch/arm64/include/asm/pgtable.h b/arch/arm64/include/asm/pgtable.h
-index ed57717cd004..874827fc7bc6 100644
 --- a/arch/arm64/include/asm/pgtable.h
 +++ b/arch/arm64/include/asm/pgtable.h
-@@ -999,23 +999,13 @@ static inline void update_mmu_cache(struct vm_area_struct *vma,
+@@ -999,23 +999,13 @@ static inline void update_mmu_cache(stru
   * page after fork() + CoW for pfn mappings. We don't always have a
   * hardware-managed access flag on arm64.
   */
@@ -357,11 +355,9 @@ index ed57717cd004..874827fc7bc6 100644
  
  #endif /* !__ASSEMBLY__ */
  
-diff --git a/arch/x86/include/asm/pgtable.h b/arch/x86/include/asm/pgtable.h
-index 448cd01eb3ec..3908780fc408 100644
 --- a/arch/x86/include/asm/pgtable.h
 +++ b/arch/x86/include/asm/pgtable.h
-@@ -1397,10 +1397,10 @@ static inline bool arch_has_pfn_modify_check(void)
+@@ -1397,10 +1397,10 @@ static inline bool arch_has_pfn_modify_c
        return boot_cpu_has_bug(X86_BUG_L1TF);
  }
  
@@ -375,11 +371,9 @@ index 448cd01eb3ec..3908780fc408 100644
  }
  
  #endif        /* __ASSEMBLY__ */
-diff --git a/include/linux/pgtable.h b/include/linux/pgtable.h
-index d468efcf48f4..2f1188980baf 100644
 --- a/include/linux/pgtable.h
 +++ b/include/linux/pgtable.h
-@@ -259,6 +259,19 @@ static inline int pmdp_clear_flush_young(struct vm_area_struct *vma,
+@@ -259,6 +259,19 @@ static inline int pmdp_clear_flush_young
  #endif /* CONFIG_TRANSPARENT_HUGEPAGE */
  #endif
  
@@ -399,8 +393,6 @@ index d468efcf48f4..2f1188980baf 100644
  #ifndef __HAVE_ARCH_PTEP_GET_AND_CLEAR
  static inline pte_t ptep_get_and_clear(struct mm_struct *mm,
                                       unsigned long address,
-diff --git a/mm/memory.c b/mm/memory.c
-index a4d0f744a458..392b7326a2d2 100644
 --- a/mm/memory.c
 +++ b/mm/memory.c
 @@ -121,18 +121,6 @@ int randomize_va_space __read_mostly =
@@ -422,7 +414,7 @@ index a4d0f744a458..392b7326a2d2 100644
  #ifndef arch_wants_old_prefaulted_pte
  static inline bool arch_wants_old_prefaulted_pte(void)
  {
-@@ -2782,7 +2770,7 @@ static inline bool cow_user_page(struct page *dst, struct page *src,
+@@ -2791,7 +2779,7 @@ static inline int cow_user_page(struct p
         * On architectures with software "accessed" bits, we would
         * take a double page fault, so mark it accessed here.
         */
@@ -431,6 +423,3 @@ index a4d0f744a458..392b7326a2d2 100644
                pte_t entry;
  
                vmf->pte = pte_offset_map_lock(mm, vmf->pmd, addr, &vmf->ptl);
--- 
-2.40.0
-