congestion_wait(BLK_RW_ASYNC, HZ/50);
        } while (1);
 }
-
-void *
-kmem_zone_alloc(kmem_zone_t *zone, xfs_km_flags_t flags)
-{
-       int     retries = 0;
-       gfp_t   lflags = kmem_flags_convert(flags);
-       void    *ptr;
-
-       trace_kmem_zone_alloc(kmem_cache_size(zone), flags, _RET_IP_);
-       do {
-               ptr = kmem_cache_alloc(zone, lflags);
-               if (ptr || (flags & KM_MAYFAIL))
-                       return ptr;
-               if (!(++retries % 100))
-                       xfs_err(NULL,
-               "%s(%u) possible memory allocation deadlock in %s (mode:0x%x)",
-                               current->comm, current->pid,
-                               __func__, lflags);
-               congestion_wait(BLK_RW_ASYNC, HZ/50);
-       } while (1);
-}
 
 #define kmem_zone      kmem_cache
 #define kmem_zone_t    struct kmem_cache
 
-extern void *kmem_zone_alloc(kmem_zone_t *, xfs_km_flags_t);
-
-static inline void *
-kmem_zone_zalloc(kmem_zone_t *zone, xfs_km_flags_t flags)
-{
-       return kmem_zone_alloc(zone, flags | KM_ZERO);
-}
-
 static inline struct page *
 kmem_to_page(void *addr)
 {
 
 DEFINE_KMEM_EVENT(kmem_alloc_io);
 DEFINE_KMEM_EVENT(kmem_alloc_large);
 DEFINE_KMEM_EVENT(kmem_realloc);
-DEFINE_KMEM_EVENT(kmem_zone_alloc);
 
 TRACE_EVENT(xfs_check_new_dalign,
        TP_PROTO(struct xfs_mount *mp, int new_dalign, xfs_ino_t calc_rootino),