void unix_inflight(struct user_struct *user, struct file *fp);
 void unix_notinflight(struct user_struct *user, struct file *fp);
 void unix_destruct_scm(struct sk_buff *skb);
-void io_uring_destruct_scm(struct sk_buff *skb);
 void unix_gc(void);
 void wait_for_unix_gc(struct scm_fp_list *fpl);
 struct sock *unix_peer_get(struct sock *sk);
 
 
 static void __unix_gc(struct work_struct *work)
 {
-       struct sk_buff *next_skb, *skb;
-       struct unix_sock *u;
-       struct unix_sock *next;
        struct sk_buff_head hitlist;
-       struct list_head cursor;
+       struct unix_sock *u, *next;
        LIST_HEAD(not_cycle_list);
+       struct list_head cursor;
 
        spin_lock(&unix_gc_lock);
 
 
        spin_unlock(&unix_gc_lock);
 
-       /* We need io_uring to clean its registered files, ignore all io_uring
-        * originated skbs. It's fine as io_uring doesn't keep references to
-        * other io_uring instances and so killing all other files in the cycle
-        * will put all io_uring references forcing it to go through normal
-        * release.path eventually putting registered files.
-        */
-       skb_queue_walk_safe(&hitlist, skb, next_skb) {
-               if (skb->destructor == io_uring_destruct_scm) {
-                       __skb_unlink(skb, &hitlist);
-                       skb_queue_tail(&skb->sk->sk_receive_queue, skb);
-               }
-       }
-
        /* Here we are. Hitlist is filled. Die. */
        __skb_queue_purge(&hitlist);
 
        spin_lock(&unix_gc_lock);
 
-       /* There could be io_uring registered files, just push them back to
-        * the inflight list
-        */
-       list_for_each_entry_safe(u, next, &gc_candidates, link)
-               list_move_tail(&u->link, &gc_inflight_list);
-
        /* All candidates should have been detached by now. */
        WARN_ON_ONCE(!list_empty(&gc_candidates));