/* AES-specific context */
        int keylen;
        u8 key[AES_KEYSIZE_128];
-       struct crypto_skcipher *fallback;
+       struct crypto_sync_skcipher *fallback;
 };
 
 struct sahara_aes_reqctx {
        /*
         * The requested key size is not supported by HW, do a fallback.
         */
-       crypto_skcipher_clear_flags(ctx->fallback, CRYPTO_TFM_REQ_MASK);
-       crypto_skcipher_set_flags(ctx->fallback, tfm->base.crt_flags &
+       crypto_sync_skcipher_clear_flags(ctx->fallback, CRYPTO_TFM_REQ_MASK);
+       crypto_sync_skcipher_set_flags(ctx->fallback, tfm->base.crt_flags &
                                                 CRYPTO_TFM_REQ_MASK);
 
-       ret = crypto_skcipher_setkey(ctx->fallback, key, keylen);
+       ret = crypto_sync_skcipher_setkey(ctx->fallback, key, keylen);
 
        tfm->base.crt_flags &= ~CRYPTO_TFM_RES_MASK;
-       tfm->base.crt_flags |= crypto_skcipher_get_flags(ctx->fallback) &
+       tfm->base.crt_flags |= crypto_sync_skcipher_get_flags(ctx->fallback) &
                               CRYPTO_TFM_RES_MASK;
        return ret;
 }
        int err;
 
        if (unlikely(ctx->keylen != AES_KEYSIZE_128)) {
-               SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
+               SYNC_SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
 
-               skcipher_request_set_tfm(subreq, ctx->fallback);
+               skcipher_request_set_sync_tfm(subreq, ctx->fallback);
                skcipher_request_set_callback(subreq, req->base.flags,
                                              NULL, NULL);
                skcipher_request_set_crypt(subreq, req->src, req->dst,
        int err;
 
        if (unlikely(ctx->keylen != AES_KEYSIZE_128)) {
-               SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
+               SYNC_SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
 
-               skcipher_request_set_tfm(subreq, ctx->fallback);
+               skcipher_request_set_sync_tfm(subreq, ctx->fallback);
                skcipher_request_set_callback(subreq, req->base.flags,
                                              NULL, NULL);
                skcipher_request_set_crypt(subreq, req->src, req->dst,
        int err;
 
        if (unlikely(ctx->keylen != AES_KEYSIZE_128)) {
-               SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
+               SYNC_SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
 
-               skcipher_request_set_tfm(subreq, ctx->fallback);
+               skcipher_request_set_sync_tfm(subreq, ctx->fallback);
                skcipher_request_set_callback(subreq, req->base.flags,
                                              NULL, NULL);
                skcipher_request_set_crypt(subreq, req->src, req->dst,
        int err;
 
        if (unlikely(ctx->keylen != AES_KEYSIZE_128)) {
-               SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
+               SYNC_SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
 
-               skcipher_request_set_tfm(subreq, ctx->fallback);
+               skcipher_request_set_sync_tfm(subreq, ctx->fallback);
                skcipher_request_set_callback(subreq, req->base.flags,
                                              NULL, NULL);
                skcipher_request_set_crypt(subreq, req->src, req->dst,
        const char *name = crypto_tfm_alg_name(tfm);
        struct sahara_ctx *ctx = crypto_tfm_ctx(tfm);
 
-       ctx->fallback = crypto_alloc_skcipher(name, 0,
-                                             CRYPTO_ALG_ASYNC |
+       ctx->fallback = crypto_alloc_sync_skcipher(name, 0,
                                              CRYPTO_ALG_NEED_FALLBACK);
        if (IS_ERR(ctx->fallback)) {
                pr_err("Error allocating fallback algo %s\n", name);
 {
        struct sahara_ctx *ctx = crypto_tfm_ctx(tfm);
 
-       crypto_free_skcipher(ctx->fallback);
+       crypto_free_sync_skcipher(ctx->fallback);
 }
 
 static u32 sahara_sha_init_hdr(struct sahara_dev *dev,