static void md_safemode_timeout(struct timer_list *t);
 static void md_start_sync(struct work_struct *ws);
 
-void mddev_init(struct mddev *mddev)
+static void active_io_release(struct percpu_ref *ref)
 {
+       struct mddev *mddev = container_of(ref, struct mddev, active_io);
+
+       wake_up(&mddev->sb_wait);
+}
+
+int mddev_init(struct mddev *mddev)
+{
+
+       if (percpu_ref_init(&mddev->active_io, active_io_release,
+                           PERCPU_REF_ALLOW_REINIT, GFP_KERNEL))
+               return -ENOMEM;
+
        mutex_init(&mddev->open_mutex);
        mutex_init(&mddev->reconfig_mutex);
        mutex_init(&mddev->sync_mutex);
 
        INIT_WORK(&mddev->sync_work, md_start_sync);
        INIT_WORK(&mddev->del_work, mddev_delayed_delete);
+
+       return 0;
 }
 EXPORT_SYMBOL_GPL(mddev_init);
 
+void mddev_destroy(struct mddev *mddev)
+{
+       percpu_ref_exit(&mddev->active_io);
+}
+EXPORT_SYMBOL_GPL(mddev_destroy);
+
 static struct mddev *mddev_find_locked(dev_t unit)
 {
        struct mddev *mddev;
        new = kzalloc(sizeof(*new), GFP_KERNEL);
        if (!new)
                return ERR_PTR(-ENOMEM);
-       mddev_init(new);
+
+       error = mddev_init(new);
+       if (error)
+               goto out_free_new;
 
        spin_lock(&all_mddevs_lock);
        if (unit) {
                error = -EEXIST;
                if (mddev_find_locked(unit))
-                       goto out_free_new;
+                       goto out_destroy_new;
                new->unit = unit;
                if (MAJOR(unit) == MD_MAJOR)
                        new->md_minor = MINOR(unit);
                error = -ENODEV;
                new->unit = mddev_alloc_unit();
                if (!new->unit)
-                       goto out_free_new;
+                       goto out_destroy_new;
                new->md_minor = MINOR(new->unit);
                new->hold_active = UNTIL_STOP;
        }
        list_add(&new->all_mddevs, &all_mddevs);
        spin_unlock(&all_mddevs_lock);
        return new;
-out_free_new:
+
+out_destroy_new:
        spin_unlock(&all_mddevs_lock);
+       mddev_destroy(new);
+out_free_new:
        kfree(new);
        return ERR_PTR(error);
 }
        list_del(&mddev->all_mddevs);
        spin_unlock(&all_mddevs_lock);
 
+       mddev_destroy(mddev);
        kfree(mddev);
 }
 
 }
 
 static int start_dirty_degraded;
-static void active_io_release(struct percpu_ref *ref)
-{
-       struct mddev *mddev = container_of(ref, struct mddev, active_io);
-
-       wake_up(&mddev->sb_wait);
-}
 
 int md_run(struct mddev *mddev)
 {
                nowait = nowait && bdev_nowait(rdev->bdev);
        }
 
-       err = percpu_ref_init(&mddev->active_io, active_io_release,
-                               PERCPU_REF_ALLOW_REINIT, GFP_KERNEL);
-       if (err)
-               return err;
-
        if (!bioset_initialized(&mddev->bio_set)) {
                err = bioset_init(&mddev->bio_set, BIO_POOL_SIZE, 0, BIOSET_NEED_BVECS);
                if (err)
-                       goto exit_active_io;
+                       return err;
        }
        if (!bioset_initialized(&mddev->sync_set)) {
                err = bioset_init(&mddev->sync_set, BIO_POOL_SIZE, 0, BIOSET_NEED_BVECS);
        bioset_exit(&mddev->sync_set);
 exit_bio_set:
        bioset_exit(&mddev->bio_set);
-exit_active_io:
-       percpu_ref_exit(&mddev->active_io);
        return err;
 }
 EXPORT_SYMBOL_GPL(md_run);
        module_put(pers->owner);
        clear_bit(MD_RECOVERY_FROZEN, &mddev->recovery);
 
-       percpu_ref_exit(&mddev->active_io);
        bioset_exit(&mddev->bio_set);
        bioset_exit(&mddev->sync_set);
        bioset_exit(&mddev->io_clone_set);