return __bpf_fill_stxdw(self, BPF_DW);
 }
 
+static int bpf_fill_long_jmp(struct bpf_test *self)
+{
+       unsigned int len = BPF_MAXINSNS;
+       struct bpf_insn *insn;
+       int i;
+
+       insn = kmalloc_array(len, sizeof(*insn), GFP_KERNEL);
+       if (!insn)
+               return -ENOMEM;
+
+       insn[0] = BPF_ALU64_IMM(BPF_MOV, R0, 1);
+       insn[1] = BPF_JMP_IMM(BPF_JEQ, R0, 1, len - 2 - 1);
+
+       /*
+        * Fill with a complex 64-bit operation that expands to a lot of
+        * instructions on 32-bit JITs. The large jump offset can then
+        * overflow the conditional branch field size, triggering a branch
+        * conversion mechanism in some JITs.
+        *
+        * Note: BPF_MAXINSNS of ALU64 MUL is enough to trigger such branch
+        * conversion on the 32-bit MIPS JIT. For other JITs, the instruction
+        * count and/or operation may need to be modified to trigger the
+        * branch conversion.
+        */
+       for (i = 2; i < len - 1; i++)
+               insn[i] = BPF_ALU64_IMM(BPF_MUL, R0, (i << 16) + i);
+
+       insn[len - 1] = BPF_EXIT_INSN();
+
+       self->u.ptr.insns = insn;
+       self->u.ptr.len = len;
+
+       return 0;
+}
+
 static struct bpf_test tests[] = {
        {
                "TAX",
                { },
                { { 0, 1 } },
        },
+       {       /* Mainly checking JIT here. */
+               "BPF_MAXINSNS: Very long conditional jump",
+               { },
+               INTERNAL | FLAG_NO_DATA,
+               { },
+               { { 0, 1 } },
+               .fill_helper = bpf_fill_long_jmp,
+       },
        {
                "JMP_JA: Jump, gap, jump, ...",
                { },