* to %true the device or media is already gone, if not we are preparing for an
  * orderly removal.
  *
- * This syncs out all dirty data and writes back inodes and then invalidates any
- * cached data in the inodes on the file system, the inodes themselves and the
- * block device mapping.
+ * This calls into the file system, which then typicall syncs out all dirty data
+ * and writes back inodes and then invalidates any cached data in the inodes on
+ * the file system.  In addition we also invalidate the block device mapping.
  */
 void bdev_mark_dead(struct block_device *bdev, bool surprise)
 {
-       struct super_block *sb = get_super(bdev);
-       int res = 0;
+       mutex_lock(&bdev->bd_holder_lock);
+       if (bdev->bd_holder_ops && bdev->bd_holder_ops->mark_dead)
+               bdev->bd_holder_ops->mark_dead(bdev, surprise);
+       else
+               sync_blockdev(bdev);
+       mutex_unlock(&bdev->bd_holder_lock);
 
-       if (sb) {
-               if (!surprise)
-                       sync_filesystem(sb);
-               /*
-                * no need to lock the super, get_super holds the
-                * read mutex so the filesystem cannot go away
-                * under us (->put_super runs with the write lock
-                * hold).
-                */
-               shrink_dcache_sb(sb);
-               res = invalidate_inodes(sb, true);
-               drop_super(sb);
-       } else {
-               if (!surprise)
-                       sync_blockdev(bdev);
-       }
        invalidate_bdev(bdev);
 }
 #ifdef CONFIG_DASD_MODULE
 
 }
 EXPORT_SYMBOL(device_add_disk);
 
-static void blk_report_disk_dead(struct gendisk *disk)
+static void blk_report_disk_dead(struct gendisk *disk, bool surprise)
 {
        struct block_device *bdev;
        unsigned long idx;
                        continue;
                rcu_read_unlock();
 
-               mutex_lock(&bdev->bd_holder_lock);
-               if (bdev->bd_holder_ops && bdev->bd_holder_ops->mark_dead)
-                       bdev->bd_holder_ops->mark_dead(bdev);
-               mutex_unlock(&bdev->bd_holder_lock);
+               bdev_mark_dead(bdev, surprise);
 
                put_device(&bdev->bd_device);
                rcu_read_lock();
        rcu_read_unlock();
 }
 
-/**
- * blk_mark_disk_dead - mark a disk as dead
- * @disk: disk to mark as dead
- *
- * Mark as disk as dead (e.g. surprise removed) and don't accept any new I/O
- * to this disk.
- */
-void blk_mark_disk_dead(struct gendisk *disk)
+static void __blk_mark_disk_dead(struct gendisk *disk)
 {
        /*
         * Fail any new I/O.
         * Prevent new I/O from crossing bio_queue_enter().
         */
        blk_queue_start_drain(disk->queue);
+}
 
-       blk_report_disk_dead(disk);
+/**
+ * blk_mark_disk_dead - mark a disk as dead
+ * @disk: disk to mark as dead
+ *
+ * Mark as disk as dead (e.g. surprise removed) and don't accept any new I/O
+ * to this disk.
+ */
+void blk_mark_disk_dead(struct gendisk *disk)
+{
+       __blk_mark_disk_dead(disk);
+       blk_report_disk_dead(disk, true);
 }
 EXPORT_SYMBOL_GPL(blk_mark_disk_dead);
 
        disk_del_events(disk);
 
        /*
-        * Prevent new openers by unlinked the bdev inode, and write out
-        * dirty data before marking the disk dead and stopping all I/O.
+        * Prevent new openers by unlinked the bdev inode.
         */
        mutex_lock(&disk->open_mutex);
-       xa_for_each(&disk->part_tbl, idx, part) {
+       xa_for_each(&disk->part_tbl, idx, part)
                remove_inode_hash(part->bd_inode);
-               bdev_mark_dead(part, false);
-       }
        mutex_unlock(&disk->open_mutex);
 
-       blk_mark_disk_dead(disk);
+       /*
+        * Tell the file system to write back all dirty data and shut down if
+        * it hasn't been notified earlier.
+        */
+       if (!test_bit(GD_DEAD, &disk->state))
+               blk_report_disk_dead(disk, false);
+       __blk_mark_disk_dead(disk);
 
        /*
         * Drop all partitions now that the disk is marked dead.
 
        return true;
 }
 
-static void fs_mark_dead(struct block_device *bdev)
+static void fs_bdev_mark_dead(struct block_device *bdev, bool surprise)
 {
        struct super_block *sb = bdev->bd_holder;
 
        if (!lock_active_super(sb))
                return;
 
+       if (!surprise)
+               sync_filesystem(sb);
+       shrink_dcache_sb(sb);
+       invalidate_inodes(sb, true);
        if (sb->s_op->shutdown)
                sb->s_op->shutdown(sb);
 
 }
 
 const struct blk_holder_ops fs_holder_ops = {
-       .mark_dead              = fs_mark_dead,
+       .mark_dead              = fs_bdev_mark_dead,
 };
 EXPORT_SYMBOL_GPL(fs_holder_ops);