/** roll applied when mapping to DMM */
        u32 roll;
 
+       /** protects dma_addr_cnt, block, pages, dma_addrs and vaddr */
+       struct mutex lock;
+
        /**
         * dma_addr contains the buffer DMA address. It is valid for
         *
  * Page Management
  */
 
-/* Ensure backing pages are allocated. */
+/*
+ * Ensure backing pages are allocated. Must be called with the omap_obj.lock
+ * held.
+ */
 static int omap_gem_attach_pages(struct drm_gem_object *obj)
 {
        struct drm_device *dev = obj->dev;
        int i, ret;
        dma_addr_t *addrs;
 
+       lockdep_assert_held(&omap_obj->lock);
+
        /*
         * If not using shmem (in which case backing pages don't need to be
         * allocated) or if pages are already allocated we're done.
        return ret;
 }
 
-/** release backing pages */
+/* Release backing pages. Must be called with the omap_obj.lock held. */
 static void omap_gem_detach_pages(struct drm_gem_object *obj)
 {
        struct omap_gem_object *omap_obj = to_omap_bo(obj);
        unsigned int npages = obj->size >> PAGE_SHIFT;
        unsigned int i;
 
+       lockdep_assert_held(&omap_obj->lock);
+
        for (i = 0; i < npages; i++) {
                if (omap_obj->dma_addrs[i])
                        dma_unmap_page(obj->dev->dev, omap_obj->dma_addrs[i],
        struct vm_area_struct *vma = vmf->vma;
        struct drm_gem_object *obj = vma->vm_private_data;
        struct omap_gem_object *omap_obj = to_omap_bo(obj);
-       struct drm_device *dev = obj->dev;
        int err;
        vm_fault_t ret;
 
        /* Make sure we don't parallel update on a fault, nor move or remove
         * something from beneath our feet
         */
-       mutex_lock(&dev->struct_mutex);
+       mutex_lock(&omap_obj->lock);
 
        /* if a shmem backed object, make sure we have pages attached now */
        err = omap_gem_attach_pages(obj);
 
 
 fail:
-       mutex_unlock(&dev->struct_mutex);
+       mutex_unlock(&omap_obj->lock);
        return ret;
 }
 
 
        omap_obj->roll = roll;
 
-       mutex_lock(&obj->dev->struct_mutex);
+       mutex_lock(&omap_obj->lock);
 
        /* if we aren't mapped yet, we don't need to do anything */
        if (omap_obj->block) {
        }
 
 fail:
-       mutex_unlock(&obj->dev->struct_mutex);
+       mutex_unlock(&omap_obj->lock);
 
        return ret;
 }
        struct omap_gem_object *omap_obj = to_omap_bo(obj);
        int ret = 0;
 
-       mutex_lock(&obj->dev->struct_mutex);
+       mutex_lock(&omap_obj->lock);
 
        if (!omap_gem_is_contiguous(omap_obj) && priv->has_dmm) {
                if (omap_obj->dma_addr_cnt == 0) {
        }
 
 fail:
-       mutex_unlock(&obj->dev->struct_mutex);
+       mutex_unlock(&omap_obj->lock);
 
        return ret;
 }
        struct omap_gem_object *omap_obj = to_omap_bo(obj);
        int ret;
 
-       mutex_lock(&obj->dev->struct_mutex);
+       mutex_lock(&omap_obj->lock);
+
        if (omap_obj->dma_addr_cnt > 0) {
                omap_obj->dma_addr_cnt--;
                if (omap_obj->dma_addr_cnt == 0) {
                }
        }
 
-       mutex_unlock(&obj->dev->struct_mutex);
+       mutex_unlock(&omap_obj->lock);
 }
 
 /* Get rotated scanout address (only valid if already pinned), at the
        struct omap_gem_object *omap_obj = to_omap_bo(obj);
        int ret = -EINVAL;
 
-       mutex_lock(&obj->dev->struct_mutex);
+       mutex_lock(&omap_obj->lock);
+
        if ((omap_obj->dma_addr_cnt > 0) && omap_obj->block &&
                        (omap_obj->flags & OMAP_BO_TILED)) {
                *dma_addr = tiler_tsptr(omap_obj->block, orient, x, y);
                ret = 0;
        }
-       mutex_unlock(&obj->dev->struct_mutex);
+
+       mutex_unlock(&omap_obj->lock);
+
        return ret;
 }
 
                bool remap)
 {
        struct omap_gem_object *omap_obj = to_omap_bo(obj);
-       int ret;
+       int ret = 0;
 
-       if (!remap) {
-               if (!omap_obj->pages)
-                       return -ENOMEM;
-               *pages = omap_obj->pages;
-               return 0;
+       mutex_lock(&omap_obj->lock);
+
+       if (remap) {
+               ret = omap_gem_attach_pages(obj);
+               if (ret)
+                       goto unlock;
        }
-       mutex_lock(&obj->dev->struct_mutex);
-       ret = omap_gem_attach_pages(obj);
+
+       if (!omap_obj->pages) {
+               ret = -ENOMEM;
+               goto unlock;
+       }
+
        *pages = omap_obj->pages;
-       mutex_unlock(&obj->dev->struct_mutex);
+
+unlock:
+       mutex_unlock(&omap_obj->lock);
+
        return ret;
 }
 
 }
 
 #ifdef CONFIG_DRM_FBDEV_EMULATION
-/* Get kernel virtual address for CPU access.. this more or less only
- * exists for omap_fbdev.  This should be called with struct_mutex
- * held.
+/*
+ * Get kernel virtual address for CPU access.. this more or less only
+ * exists for omap_fbdev.
  */
 void *omap_gem_vaddr(struct drm_gem_object *obj)
 {
        struct omap_gem_object *omap_obj = to_omap_bo(obj);
-       WARN_ON(!mutex_is_locked(&obj->dev->struct_mutex));
-       if (!omap_obj->vaddr) {
-               int ret;
+       void *vaddr;
+       int ret;
+
+       mutex_lock(&omap_obj->lock);
 
+       if (!omap_obj->vaddr) {
                ret = omap_gem_attach_pages(obj);
-               if (ret)
-                       return ERR_PTR(ret);
+               if (ret) {
+                       vaddr = ERR_PTR(ret);
+                       goto unlock;
+               }
+
                omap_obj->vaddr = vmap(omap_obj->pages, obj->size >> PAGE_SHIFT,
                                VM_MAP, pgprot_writecombine(PAGE_KERNEL));
        }
-       return omap_obj->vaddr;
+
+       vaddr = omap_obj->vaddr;
+
+unlock:
+       mutex_unlock(&omap_obj->lock);
+       return vaddr;
 }
 #endif
 
 
        off = drm_vma_node_start(&obj->vma_node);
 
+       mutex_lock(&omap_obj->lock);
+
        seq_printf(m, "%08x: %2d (%2d) %08llx %pad (%2d) %p %4d",
                        omap_obj->flags, obj->name, kref_read(&obj->refcount),
                        off, &omap_obj->dma_addr, omap_obj->dma_addr_cnt,
                seq_printf(m, " %zu", obj->size);
        }
 
+       mutex_unlock(&omap_obj->lock);
+
        seq_printf(m, "\n");
 }
 
 
        omap_gem_evict(obj);
 
-       WARN_ON(!mutex_is_locked(&dev->struct_mutex));
-
        spin_lock(&priv->list_lock);
        list_del(&omap_obj->mm_list);
        spin_unlock(&priv->list_lock);
 
-       /* this means the object is still pinned.. which really should
-        * not happen.  I think..
+       /*
+        * We own the sole reference to the object at this point, but to keep
+        * lockdep happy, we must still take the omap_obj_lock to call
+        * omap_gem_detach_pages(). This should hardly make any difference as
+        * there can't be any lock contention.
         */
+       mutex_lock(&omap_obj->lock);
+
+       /* The object should not be pinned. */
        WARN_ON(omap_obj->dma_addr_cnt > 0);
 
        if (omap_obj->pages) {
                drm_prime_gem_destroy(obj, omap_obj->sgt);
        }
 
+       mutex_unlock(&omap_obj->lock);
+
        drm_gem_object_release(obj);
 
+       mutex_destroy(&omap_obj->lock);
+
        kfree(omap_obj);
 }
 
 
        obj = &omap_obj->base;
        omap_obj->flags = flags;
+       mutex_init(&omap_obj->lock);
 
        if (flags & OMAP_BO_TILED) {
                /*
        if (sgt->orig_nents != 1 && !priv->has_dmm)
                return ERR_PTR(-EINVAL);
 
-       mutex_lock(&dev->struct_mutex);
-
        gsize.bytes = PAGE_ALIGN(size);
        obj = omap_gem_new(dev, gsize, OMAP_BO_MEM_DMABUF | OMAP_BO_WC);
-       if (!obj) {
-               obj = ERR_PTR(-ENOMEM);
-               goto done;
-       }
+       if (!obj)
+               return ERR_PTR(-ENOMEM);
 
        omap_obj = to_omap_bo(obj);
+
+       mutex_lock(&omap_obj->lock);
+
        omap_obj->sgt = sgt;
 
        if (sgt->orig_nents == 1) {
        }
 
 done:
-       mutex_unlock(&dev->struct_mutex);
+       mutex_unlock(&omap_obj->lock);
        return obj;
 }