struct pacct_struct pacct;      /* per-process accounting information */
 #endif
 #ifdef CONFIG_TASKSTATS
-       spinlock_t stats_lock;
        struct taskstats *stats;
 #endif
 };
 
 
 static inline void taskstats_tgid_init(struct signal_struct *sig)
 {
-       spin_lock_init(&sig->stats_lock);
        sig->stats = NULL;
 }
 
-static inline void taskstats_tgid_alloc(struct signal_struct *sig)
+static inline void taskstats_tgid_alloc(struct task_struct *tsk)
 {
+       struct signal_struct *sig = tsk->signal;
        struct taskstats *stats;
-       unsigned long flags;
 
        if (sig->stats != NULL)
                return;
 
+       /* No problem if kmem_cache_zalloc() fails */
        stats = kmem_cache_zalloc(taskstats_cache, SLAB_KERNEL);
-       if (!stats)
-               return;
 
-       spin_lock_irqsave(&sig->stats_lock, flags);
+       spin_lock_irq(&tsk->sighand->siglock);
        if (!sig->stats) {
                sig->stats = stats;
                stats = NULL;
        }
-       spin_unlock_irqrestore(&sig->stats_lock, flags);
+       spin_unlock_irq(&tsk->sighand->siglock);
 
        if (stats)
                kmem_cache_free(taskstats_cache, stats);
 extern void taskstats_exit_alloc(struct taskstats **, unsigned int *);
 extern void taskstats_exit_send(struct task_struct *, struct taskstats *, int, unsigned int);
 extern void taskstats_init_early(void);
-extern void taskstats_tgid_alloc(struct signal_struct *);
 #else
 static inline void taskstats_exit_alloc(struct taskstats **ptidstats, unsigned int *mycpu)
 {}
 {}
 static inline void taskstats_tgid_init(struct signal_struct *sig)
 {}
-static inline void taskstats_tgid_alloc(struct signal_struct *sig)
+static inline void taskstats_tgid_alloc(struct task_struct *tsk)
 {}
 static inline void taskstats_tgid_free(struct signal_struct *sig)
 {}
 
        if (clone_flags & CLONE_THREAD) {
                atomic_inc(¤t->signal->count);
                atomic_inc(¤t->signal->live);
-               taskstats_tgid_alloc(current->signal);
+               taskstats_tgid_alloc(current);
                return 0;
        }
        sig = kmem_cache_alloc(signal_cachep, GFP_KERNEL);
 
        tsk = first;
        read_lock(&tasklist_lock);
        /* Start with stats from dead tasks */
-       if (first->signal) {
-               spin_lock_irqsave(&first->signal->stats_lock, flags);
+       if (first->sighand) {
+               spin_lock_irqsave(&first->sighand->siglock, flags);
                if (first->signal->stats)
                        memcpy(stats, first->signal->stats, sizeof(*stats));
-               spin_unlock_irqrestore(&first->signal->stats_lock, flags);
+               spin_unlock_irqrestore(&first->sighand->siglock, flags);
        }
 
        do {
 {
        unsigned long flags;
 
-       spin_lock_irqsave(&tsk->signal->stats_lock, flags);
+       spin_lock_irqsave(&tsk->sighand->siglock, flags);
        if (!tsk->signal->stats)
                goto ret;
 
         */
        delayacct_add_tsk(tsk->signal->stats, tsk);
 ret:
-       spin_unlock_irqrestore(&tsk->signal->stats_lock, flags);
+       spin_unlock_irqrestore(&tsk->sighand->siglock, flags);
        return;
 }
 
        size_t size;
        int is_thread_group;
        struct nlattr *na;
-       unsigned long flags;
 
        if (!family_registered || !tidstats)
                return;
 
-       spin_lock_irqsave(&tsk->signal->stats_lock, flags);
-       is_thread_group = tsk->signal->stats ? 1 : 0;
-       spin_unlock_irqrestore(&tsk->signal->stats_lock, flags);
-
        rc = 0;
        /*
         * Size includes space for nested attributes
        size = nla_total_size(sizeof(u32)) +
                nla_total_size(sizeof(struct taskstats)) + nla_total_size(0);
 
+       is_thread_group = (tsk->signal->stats != NULL);
        if (is_thread_group)
                size = 2 * size;        /* PID + STATS + TGID + STATS */