wake_up(&vgdev->cursorq.ack_queue);
 }
 
-static void virtio_gpu_queue_ctrl_buffer_locked(struct virtio_gpu_device *vgdev,
+static bool virtio_gpu_queue_ctrl_buffer_locked(struct virtio_gpu_device *vgdev,
                                                struct virtio_gpu_vbuffer *vbuf)
                __releases(&vgdev->ctrlq.qlock)
                __acquires(&vgdev->ctrlq.qlock)
        struct virtqueue *vq = vgdev->ctrlq.vq;
        struct scatterlist *sgs[3], vcmd, vout, vresp;
        int outcnt = 0, incnt = 0;
+       bool notify = false;
        int ret;
 
        if (!vgdev->vqs_ready)
-               return;
+               return notify;
 
        sg_init_one(&vcmd, vbuf->buf, vbuf->size);
        sgs[outcnt + incnt] = &vcmd;
                trace_virtio_gpu_cmd_queue(vq,
                        (struct virtio_gpu_ctrl_hdr *)vbuf->buf);
 
-               virtqueue_kick(vq);
+               notify = virtqueue_kick_prepare(vq);
        }
+       return notify;
 }
 
 static void virtio_gpu_queue_ctrl_buffer(struct virtio_gpu_device *vgdev,
                                         struct virtio_gpu_vbuffer *vbuf)
 {
+       bool notify;
+
        spin_lock(&vgdev->ctrlq.qlock);
-       virtio_gpu_queue_ctrl_buffer_locked(vgdev, vbuf);
+       notify = virtio_gpu_queue_ctrl_buffer_locked(vgdev, vbuf);
        spin_unlock(&vgdev->ctrlq.qlock);
+       if (notify)
+               virtqueue_notify(vgdev->ctrlq.vq);
 }
 
 static void virtio_gpu_queue_fenced_ctrl_buffer(struct virtio_gpu_device *vgdev,
                                                struct virtio_gpu_fence *fence)
 {
        struct virtqueue *vq = vgdev->ctrlq.vq;
+       bool notify;
 
 again:
        spin_lock(&vgdev->ctrlq.qlock);
 
        if (fence)
                virtio_gpu_fence_emit(vgdev, hdr, fence);
-       virtio_gpu_queue_ctrl_buffer_locked(vgdev, vbuf);
+       notify = virtio_gpu_queue_ctrl_buffer_locked(vgdev, vbuf);
        spin_unlock(&vgdev->ctrlq.qlock);
+       if (notify)
+               virtqueue_notify(vgdev->ctrlq.vq);
 }
 
 static void virtio_gpu_queue_cursor(struct virtio_gpu_device *vgdev,
 {
        struct virtqueue *vq = vgdev->cursorq.vq;
        struct scatterlist *sgs[1], ccmd;
+       bool notify;
        int ret;
        int outcnt;
 
                trace_virtio_gpu_cmd_queue(vq,
                        (struct virtio_gpu_ctrl_hdr *)vbuf->buf);
 
-               virtqueue_kick(vq);
+               notify = virtqueue_kick_prepare(vq);
        }
 
        spin_unlock(&vgdev->cursorq.qlock);
+
+       if (notify)
+               virtqueue_notify(vq);
 }
 
 /* just create gem objects for userspace and long lived objects,