!!(mode & FLAGS_CBC));
 
        if (req->nbytes < aes_fallback_sz) {
-               SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
+               SYNC_SKCIPHER_REQUEST_ON_STACK(subreq, ctx->fallback);
 
-               skcipher_request_set_tfm(subreq, ctx->fallback);
+               skcipher_request_set_sync_tfm(subreq, ctx->fallback);
                skcipher_request_set_callback(subreq, req->base.flags, NULL,
                                              NULL);
                skcipher_request_set_crypt(subreq, req->src, req->dst,
        memcpy(ctx->key, key, keylen);
        ctx->keylen = keylen;
 
-       crypto_skcipher_clear_flags(ctx->fallback, CRYPTO_TFM_REQ_MASK);
-       crypto_skcipher_set_flags(ctx->fallback, tfm->base.crt_flags &
+       crypto_sync_skcipher_clear_flags(ctx->fallback, CRYPTO_TFM_REQ_MASK);
+       crypto_sync_skcipher_set_flags(ctx->fallback, tfm->base.crt_flags &
                                                 CRYPTO_TFM_REQ_MASK);
 
-       ret = crypto_skcipher_setkey(ctx->fallback, key, keylen);
+       ret = crypto_sync_skcipher_setkey(ctx->fallback, key, keylen);
        if (!ret)
                return 0;
 
 static int omap_aes_cra_init(struct crypto_tfm *tfm)
 {
        const char *name = crypto_tfm_alg_name(tfm);
-       const u32 flags = CRYPTO_ALG_ASYNC | CRYPTO_ALG_NEED_FALLBACK;
        struct omap_aes_ctx *ctx = crypto_tfm_ctx(tfm);
-       struct crypto_skcipher *blk;
+       struct crypto_sync_skcipher *blk;
 
-       blk = crypto_alloc_skcipher(name, 0, flags);
+       blk = crypto_alloc_sync_skcipher(name, 0, CRYPTO_ALG_NEED_FALLBACK);
        if (IS_ERR(blk))
                return PTR_ERR(blk);
 
        struct omap_aes_ctx *ctx = crypto_tfm_ctx(tfm);
 
        if (ctx->fallback)
-               crypto_free_skcipher(ctx->fallback);
+               crypto_free_sync_skcipher(ctx->fallback);
 
        ctx->fallback = NULL;
 }