memcpy(ctx->enc_key, key, keylen);
        return 0;
 fallback:
-       ret = crypto_skcipher_setkey(ctx->fallback, key, keylen);
+       ret = crypto_sync_skcipher_setkey(ctx->fallback, key, keylen);
        if (!ret)
                ctx->enc_keylen = keylen;
        return ret;
 
        if (IS_AES(rctx->flags) && ctx->enc_keylen != AES_KEYSIZE_128 &&
            ctx->enc_keylen != AES_KEYSIZE_256) {
-               SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
+               SYNC_SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
 
-               skcipher_request_set_tfm(subreq, ctx->fallback);
+               skcipher_request_set_sync_tfm(subreq, ctx->fallback);
                skcipher_request_set_callback(subreq, req->base.flags,
                                              NULL, NULL);
                skcipher_request_set_crypt(subreq, req->src, req->dst,
        memset(ctx, 0, sizeof(*ctx));
        tfm->crt_ablkcipher.reqsize = sizeof(struct qce_cipher_reqctx);
 
-       ctx->fallback = crypto_alloc_skcipher(crypto_tfm_alg_name(tfm), 0,
-                                             CRYPTO_ALG_ASYNC |
-                                             CRYPTO_ALG_NEED_FALLBACK);
+       ctx->fallback = crypto_alloc_sync_skcipher(crypto_tfm_alg_name(tfm),
+                                                  0, CRYPTO_ALG_NEED_FALLBACK);
        return PTR_ERR_OR_ZERO(ctx->fallback);
 }
 
 {
        struct qce_cipher_ctx *ctx = crypto_tfm_ctx(tfm);
 
-       crypto_free_skcipher(ctx->fallback);
+       crypto_free_sync_skcipher(ctx->fallback);
 }
 
 struct qce_ablkcipher_def {