x86: improve array_index_mask_nospec() code generation
authorLinus Torvalds <torvalds@linux-foundation.org>
Mon, 8 Apr 2024 18:38:30 +0000 (11:38 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Wed, 22 May 2024 21:12:11 +0000 (14:12 -0700)
Don't force the inputs to be 'unsigned long', when the comparison can
easily be done in 32-bit if that's more appropriate.

Note that while we can look at the inputs to choose an appropriate size
for the compare instruction, the output is fixed at 'unsigned long'.
That's not technically optimal either, since a 32-bit 'sbbl' would often
be sufficient.

But for the outgoing mask we don't know how the mask ends up being used
(ie we have uses that have an incoming 32-bit array index, but end up
using the mask for other things).  That said, it only costs the extra
REX prefix to always generate the 64-bit mask.

[ A 'sbbl' also always technically generates a 64-bit mask, but with the
  upper 32 bits clear: that's fine for when the incoming index that will
  be masked is already 32-bit, but not if you use the mask to mask a
  pointer afterwards, like the file table lookup does ]

Cc: Peter Zijlstra <peterz@infradead.org>
Cc: H. Peter Anvin <hpa@zytor.com>
Cc: Ingo Molnar <mingo@kernel.org>
Cc: Thomas Gleixner <tglx@linutronix.de>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
arch/x86/include/asm/barrier.h

index 63bdc6b85219716cd000aa2551ec5133bafeaec7..7b44b3c4cce11450b945ac8c064c43465e1d191c 100644 (file)
  * Returns:
  *     0 - (index < size)
  */
-static __always_inline unsigned long array_index_mask_nospec(unsigned long index,
-               unsigned long size)
-{
-       unsigned long mask;
-
-       asm volatile ("cmp %1,%2; sbb %0,%0;"
-                       :"=r" (mask)
-                       :"g"(size),"r" (index)
-                       :"cc");
-       return mask;
-}
-
-/* Override the default implementation from linux/nospec.h. */
-#define array_index_mask_nospec array_index_mask_nospec
+#define array_index_mask_nospec(idx,sz) ({     \
+       typeof((idx)+(sz)) __idx = (idx);       \
+       typeof(__idx) __sz = (sz);              \
+       unsigned long __mask;                   \
+       asm volatile ("cmp %1,%2; sbb %0,%0"    \
+                       :"=r" (__mask)          \
+                       :ASM_INPUT_G (__sz),    \
+                        "r" (__idx)            \
+                       :"cc");                 \
+       __mask; })
 
 /* Prevent speculative execution past this barrier. */
 #define barrier_nospec() alternative("", "lfence", X86_FEATURE_LFENCE_RDTSC)