``-EBUSY``
   The subchannel was status pending or busy while processing a halt request.
 
+vfio-ccw schib region
+---------------------
+
+The vfio-ccw schib region is used to return Subchannel-Information
+Block (SCHIB) data to userspace::
+
+  struct ccw_schib_region {
+  #define SCHIB_AREA_SIZE 52
+         __u8 schib_area[SCHIB_AREA_SIZE];
+  } __packed;
+
+This region is exposed via region type VFIO_REGION_SUBTYPE_CCW_SCHIB.
+
+Reading this region triggers a STORE SUBCHANNEL to be issued to the
+associated hardware.
 
 vfio-ccw operation details
 --------------------------
 device.
 
 The current code allows the guest to start channel programs via
-START SUBCHANNEL, and to issue HALT SUBCHANNEL and CLEAR SUBCHANNEL.
+START SUBCHANNEL, and to issue HALT SUBCHANNEL, CLEAR SUBCHANNEL,
+and STORE SUBCHANNEL.
 
 Currently all channel programs are prefetched, regardless of the
 p-bit setting in the ORB.  As a result, self modifying channel
 
 obj-$(CONFIG_QDIO) += qdio.o
 
 vfio_ccw-objs += vfio_ccw_drv.o vfio_ccw_cp.o vfio_ccw_ops.o vfio_ccw_fsm.o \
-       vfio_ccw_async.o vfio_ccw_trace.o
+       vfio_ccw_async.o vfio_ccw_trace.o vfio_ccw_chp.o
 obj-$(CONFIG_VFIO_CCW) += vfio_ccw.o
 
--- /dev/null
+// SPDX-License-Identifier: GPL-2.0
+/*
+ * Channel path related status regions for vfio_ccw
+ *
+ * Copyright IBM Corp. 2020
+ *
+ * Author(s): Farhan Ali <alifm@linux.ibm.com>
+ *            Eric Farman <farman@linux.ibm.com>
+ */
+
+#include <linux/vfio.h>
+#include "vfio_ccw_private.h"
+
+static ssize_t vfio_ccw_schib_region_read(struct vfio_ccw_private *private,
+                                         char __user *buf, size_t count,
+                                         loff_t *ppos)
+{
+       unsigned int i = VFIO_CCW_OFFSET_TO_INDEX(*ppos) - VFIO_CCW_NUM_REGIONS;
+       loff_t pos = *ppos & VFIO_CCW_OFFSET_MASK;
+       struct ccw_schib_region *region;
+       int ret;
+
+       if (pos + count > sizeof(*region))
+               return -EINVAL;
+
+       mutex_lock(&private->io_mutex);
+       region = private->region[i].data;
+
+       if (cio_update_schib(private->sch)) {
+               ret = -ENODEV;
+               goto out;
+       }
+
+       memcpy(region, &private->sch->schib, sizeof(*region));
+
+       if (copy_to_user(buf, (void *)region + pos, count)) {
+               ret = -EFAULT;
+               goto out;
+       }
+
+       ret = count;
+
+out:
+       mutex_unlock(&private->io_mutex);
+       return ret;
+}
+
+static ssize_t vfio_ccw_schib_region_write(struct vfio_ccw_private *private,
+                                          const char __user *buf, size_t count,
+                                          loff_t *ppos)
+{
+       return -EINVAL;
+}
+
+
+static void vfio_ccw_schib_region_release(struct vfio_ccw_private *private,
+                                         struct vfio_ccw_region *region)
+{
+
+}
+
+const struct vfio_ccw_regops vfio_ccw_schib_region_ops = {
+       .read = vfio_ccw_schib_region_read,
+       .write = vfio_ccw_schib_region_write,
+       .release = vfio_ccw_schib_region_release,
+};
+
+int vfio_ccw_register_schib_dev_regions(struct vfio_ccw_private *private)
+{
+       return vfio_ccw_register_dev_region(private,
+                                           VFIO_REGION_SUBTYPE_CCW_SCHIB,
+                                           &vfio_ccw_schib_region_ops,
+                                           sizeof(struct ccw_schib_region),
+                                           VFIO_REGION_INFO_FLAG_READ,
+                                           private->schib_region);
+}
 
 struct workqueue_struct *vfio_ccw_work_q;
 static struct kmem_cache *vfio_ccw_io_region;
 static struct kmem_cache *vfio_ccw_cmd_region;
+static struct kmem_cache *vfio_ccw_schib_region;
 
 debug_info_t *vfio_ccw_debug_msg_id;
 debug_info_t *vfio_ccw_debug_trace_id;
 
 static void vfio_ccw_free_regions(struct vfio_ccw_private *private)
 {
+       if (private->schib_region)
+               kmem_cache_free(vfio_ccw_schib_region, private->schib_region);
        if (private->cmd_region)
                kmem_cache_free(vfio_ccw_cmd_region, private->cmd_region);
        if (private->io_region)
        if (!private->cmd_region)
                goto out_free;
 
+       private->schib_region = kmem_cache_zalloc(vfio_ccw_schib_region,
+                                                 GFP_KERNEL | GFP_DMA);
+
+       if (!private->schib_region)
+               goto out_free;
+
        private->sch = sch;
        dev_set_drvdata(&sch->dev, private);
        mutex_init(&private->io_mutex);
 
 static void vfio_ccw_destroy_regions(void)
 {
+       kmem_cache_destroy(vfio_ccw_schib_region);
        kmem_cache_destroy(vfio_ccw_cmd_region);
        kmem_cache_destroy(vfio_ccw_io_region);
 }
                goto out_err;
        }
 
+       vfio_ccw_schib_region = kmem_cache_create_usercopy("vfio_ccw_schib_region",
+                                       sizeof(struct ccw_schib_region), 0,
+                                       SLAB_ACCOUNT, 0,
+                                       sizeof(struct ccw_schib_region), NULL);
+
+       if (!vfio_ccw_schib_region) {
+               ret = -ENOMEM;
+               goto out_err;
+       }
+
        isc_register(VFIO_CCW_ISC);
        ret = css_driver_register(&vfio_ccw_sch_driver);
        if (ret) {
 
 
        ret = vfio_ccw_register_async_dev_regions(private);
        if (ret)
-               vfio_unregister_notifier(mdev_dev(mdev), VFIO_IOMMU_NOTIFY,
-                                        &private->nb);
+               goto out_unregister;
+
+       ret = vfio_ccw_register_schib_dev_regions(private);
+       if (ret)
+               goto out_unregister;
+
+       return ret;
+
+out_unregister:
+       vfio_ccw_unregister_dev_regions(private);
+       vfio_unregister_notifier(mdev_dev(mdev), VFIO_IOMMU_NOTIFY,
+                                &private->nb);
        return ret;
 }
 
 
 void vfio_ccw_unregister_dev_regions(struct vfio_ccw_private *private);
 
 int vfio_ccw_register_async_dev_regions(struct vfio_ccw_private *private);
+int vfio_ccw_register_schib_dev_regions(struct vfio_ccw_private *private);
 
 /**
  * struct vfio_ccw_private
  * @io_mutex: protect against concurrent update of I/O regions
  * @region: additional regions for other subchannel operations
  * @cmd_region: MMIO region for asynchronous I/O commands other than START
+ * @schib_region: MMIO region for SCHIB information
  * @num_regions: number of additional regions
  * @cp: channel program for the current I/O operation
  * @irb: irb info received from interrupt
        struct mutex            io_mutex;
        struct vfio_ccw_region *region;
        struct ccw_cmd_region   *cmd_region;
+       struct ccw_schib_region *schib_region;
        int num_regions;
 
        struct channel_program  cp;
 
 
 /* sub-types for VFIO_REGION_TYPE_CCW */
 #define VFIO_REGION_SUBTYPE_CCW_ASYNC_CMD      (1)
+#define VFIO_REGION_SUBTYPE_CCW_SCHIB          (2)
 
 /*
  * The MSIX mappable capability informs that MSIX data of a BAR can be mmapped
 
        __u32 ret_code;
 } __packed;
 
+/*
+ * Used for processing commands that read the subchannel-information block
+ * Reading this region triggers a stsch() to hardware
+ * Note: this is controlled by a capability
+ */
+struct ccw_schib_region {
+#define SCHIB_AREA_SIZE 52
+       __u8 schib_area[SCHIB_AREA_SIZE];
+} __packed;
+
 #endif