x86/microcode: Default-disable late loading
authorBorislav Petkov <bp@suse.de>
Wed, 25 May 2022 16:12:30 +0000 (18:12 +0200)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Fri, 10 Mar 2023 08:39:12 +0000 (09:39 +0100)
[ Upstream commit a77a94f86273ce42a39cb479217dd8d68acfe0ff ]

It is dangerous and it should not be used anyway - there's a nice early
loading already.

Requested-by: Peter Zijlstra (Intel) <peterz@infradead.org>
Signed-off-by: Borislav Petkov <bp@suse.de>
Signed-off-by: Thomas Gleixner <tglx@linutronix.de>
Link: https://lore.kernel.org/r/20220525161232.14924-3-bp@alien8.de
Stable-dep-of: c0dd9245aa9e ("x86/microcode: Check CPU capabilities after late microcode update correctly")
Signed-off-by: Sasha Levin <sashal@kernel.org>
arch/x86/Kconfig
arch/x86/kernel/cpu/common.c
arch/x86/kernel/cpu/microcode/core.c

index da87b3bfc91327a7741c00d8895a7ab443489387..a08ce6360382a3e9160a020858fa31d8bd14c589 100644 (file)
@@ -1320,6 +1320,17 @@ config MICROCODE_AMD
          If you select this option, microcode patch loading support for AMD
          processors will be enabled.
 
+config MICROCODE_LATE_LOADING
+       bool "Late microcode loading (DANGEROUS)"
+       default n
+       depends on MICROCODE
+       help
+         Loading microcode late, when the system is up and executing instructions
+         is a tricky business and should be avoided if possible. Just the sequence
+         of synchronizing all cores and SMT threads is one fragile dance which does
+         not guarantee that cores might not softlock after the loading. Therefore,
+         use this at your own risk. Late loading taints the kernel too.
+
 config X86_MSR
        tristate "/dev/cpu/*/msr - Model-specific register support"
        help
index 1698470dbea5f4637559446f641f87e2e093e22d..6b71f40cd52d6b98a54b43fe798afe709cee13b7 100644 (file)
@@ -2149,6 +2149,7 @@ void cpu_init_secondary(void)
 }
 #endif
 
+#ifdef CONFIG_MICROCODE_LATE_LOADING
 /*
  * The microcode loader calls this upon late microcode load to recheck features,
  * only when microcode has been updated. Caller holds microcode_mutex and CPU
@@ -2178,6 +2179,7 @@ void microcode_check(void)
        pr_warn("x86/CPU: CPU features have changed after loading microcode, but might not take effect.\n");
        pr_warn("x86/CPU: Please consider either early loading through initrd/built-in or a potential BIOS update.\n");
 }
+#endif
 
 /*
  * Invoked from core CPU hotplug code after hotplug operations
index 951677121c77d1c573ef79ad78073593fc4132f2..dc346bbb067777adbb75b0f0ea45e442c626d73b 100644 (file)
@@ -393,6 +393,7 @@ static int apply_microcode_on_target(int cpu)
 /* fake device for request_firmware */
 static struct platform_device  *microcode_pdev;
 
+#ifdef CONFIG_MICROCODE_LATE_LOADING
 /*
  * Late loading dance. Why the heavy-handed stomp_machine effort?
  *
@@ -560,6 +561,9 @@ put:
        return ret;
 }
 
+static DEVICE_ATTR_WO(reload);
+#endif
+
 static ssize_t version_show(struct device *dev,
                        struct device_attribute *attr, char *buf)
 {
@@ -576,7 +580,6 @@ static ssize_t pf_show(struct device *dev,
        return sprintf(buf, "0x%x\n", uci->cpu_sig.pf);
 }
 
-static DEVICE_ATTR_WO(reload);
 static DEVICE_ATTR(version, 0444, version_show, NULL);
 static DEVICE_ATTR(processor_flags, 0444, pf_show, NULL);
 
@@ -729,7 +732,9 @@ static int mc_cpu_down_prep(unsigned int cpu)
 }
 
 static struct attribute *cpu_root_microcode_attrs[] = {
+#ifdef CONFIG_MICROCODE_LATE_LOADING
        &dev_attr_reload.attr,
+#endif
        NULL
 };