unsigned int                    hot:1;
 
        /* Crypto-specific context */
-       struct crypto_skcipher          *fallback;
+       struct crypto_sync_skcipher     *fallback;
        unsigned int                    key_len;
        uint8_t                         key[AES_KEYSIZE_128];
 };
 {
        struct crypto_ablkcipher *tfm = crypto_ablkcipher_reqtfm(req);
        struct dcp_async_ctx *ctx = crypto_ablkcipher_ctx(tfm);
-       SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
+       SYNC_SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
        int ret;
 
-       skcipher_request_set_tfm(subreq, ctx->fallback);
+       skcipher_request_set_sync_tfm(subreq, ctx->fallback);
        skcipher_request_set_callback(subreq, req->base.flags, NULL, NULL);
        skcipher_request_set_crypt(subreq, req->src, req->dst,
                                   req->nbytes, req->info);
         * but is supported by in-kernel software implementation, we use
         * software fallback.
         */
-       crypto_skcipher_clear_flags(actx->fallback, CRYPTO_TFM_REQ_MASK);
-       crypto_skcipher_set_flags(actx->fallback,
+       crypto_sync_skcipher_clear_flags(actx->fallback, CRYPTO_TFM_REQ_MASK);
+       crypto_sync_skcipher_set_flags(actx->fallback,
                                  tfm->base.crt_flags & CRYPTO_TFM_REQ_MASK);
 
-       ret = crypto_skcipher_setkey(actx->fallback, key, len);
+       ret = crypto_sync_skcipher_setkey(actx->fallback, key, len);
        if (!ret)
                return 0;
 
        tfm->base.crt_flags &= ~CRYPTO_TFM_RES_MASK;
-       tfm->base.crt_flags |= crypto_skcipher_get_flags(actx->fallback) &
+       tfm->base.crt_flags |= crypto_sync_skcipher_get_flags(actx->fallback) &
                               CRYPTO_TFM_RES_MASK;
 
        return ret;
 static int mxs_dcp_aes_fallback_init(struct crypto_tfm *tfm)
 {
        const char *name = crypto_tfm_alg_name(tfm);
-       const uint32_t flags = CRYPTO_ALG_ASYNC | CRYPTO_ALG_NEED_FALLBACK;
        struct dcp_async_ctx *actx = crypto_tfm_ctx(tfm);
-       struct crypto_skcipher *blk;
+       struct crypto_sync_skcipher *blk;
 
-       blk = crypto_alloc_skcipher(name, 0, flags);
+       blk = crypto_alloc_sync_skcipher(name, 0, CRYPTO_ALG_NEED_FALLBACK);
        if (IS_ERR(blk))
                return PTR_ERR(blk);
 
 {
        struct dcp_async_ctx *actx = crypto_tfm_ctx(tfm);
 
-       crypto_free_skcipher(actx->fallback);
+       crypto_free_sync_skcipher(actx->fallback);
 }
 
 /*