x86: Fix various typos in comments
authorIngo Molnar <mingo@kernel.org>
Mon, 3 Dec 2018 09:47:34 +0000 (10:47 +0100)
committerIngo Molnar <mingo@kernel.org>
Mon, 3 Dec 2018 09:49:13 +0000 (10:49 +0100)
Go over arch/x86/ and fix common typos in comments,
and a typo in an actual function argument name.

No change in functionality intended.

Cc: Thomas Gleixner <tglx@linutronix.de>
Cc: Borislav Petkov <bp@alien8.de>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Linus Torvalds <torvalds@linux-foundation.org>
Cc: linux-kernel@vger.kernel.org
Signed-off-by: Ingo Molnar <mingo@kernel.org>
26 files changed:
arch/x86/crypto/cast5_avx_glue.c
arch/x86/crypto/cast6_avx_glue.c
arch/x86/entry/common.c
arch/x86/entry/vdso/vma.c
arch/x86/events/intel/bts.c
arch/x86/events/intel/core.c
arch/x86/events/intel/ds.c
arch/x86/events/intel/p4.c
arch/x86/include/asm/alternative.h
arch/x86/include/asm/cmpxchg.h
arch/x86/include/asm/efi.h
arch/x86/kernel/acpi/boot.c
arch/x86/kernel/cpu/mcheck/mce.c
arch/x86/kernel/crash_dump_64.c
arch/x86/kernel/process_64.c
arch/x86/kvm/vmx.c
arch/x86/kvm/x86.c
arch/x86/mm/pageattr.c
arch/x86/platform/ce4100/ce4100.c
arch/x86/platform/intel-mid/device_libs/platform_bcm43xx.c
arch/x86/platform/intel-mid/device_libs/platform_mrfld_spidev.c
arch/x86/platform/intel-mid/device_libs/platform_pcal9555a.c
arch/x86/platform/intel/iosf_mbi.c
arch/x86/platform/olpc/olpc-xo1-sci.c
arch/x86/platform/uv/uv_nmi.c
arch/x86/xen/setup.c

index 41034745d6a2af2e9938c00dd103fdf5db71320a..d1ce49119da87d68fb91c88c1d83b0abe794447e 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Glue Code for the AVX assembler implemention of the Cast5 Cipher
+ * Glue Code for the AVX assembler implementation of the Cast5 Cipher
  *
  * Copyright (C) 2012 Johannes Goetzfried
  *     <Johannes.Goetzfried@informatik.stud.uni-erlangen.de>
index 9fb66b5e94b23ec9958e669b5a749b98060742a8..18965c39305e99202788ef5455a318038f04a633 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Glue Code for the AVX assembler implemention of the Cast6 Cipher
+ * Glue Code for the AVX assembler implementation of the Cast6 Cipher
  *
  * Copyright (C) 2012 Johannes Goetzfried
  *     <Johannes.Goetzfried@informatik.stud.uni-erlangen.de>
index 3b2490b81918128a61f6df1807788436d4f8ceb7..7bc105f47d21aa7fba9d9cd56b08532a345db74b 100644 (file)
@@ -140,7 +140,7 @@ static void exit_to_usermode_loop(struct pt_regs *regs, u32 cached_flags)
        /*
         * In order to return to user mode, we need to have IRQs off with
         * none of EXIT_TO_USERMODE_LOOP_FLAGS set.  Several of these flags
-        * can be set at any time on preemptable kernels if we have IRQs on,
+        * can be set at any time on preemptible kernels if we have IRQs on,
         * so we need to loop.  Disabling preemption wouldn't help: doing the
         * work to clear some of the flags can sleep.
         */
index 7eb878561910f168b82a84bb4c52efdd5a901595..babc4e7a519c62a6184de3af38ee8edd4b71c18f 100644 (file)
@@ -261,7 +261,7 @@ int map_vdso_once(const struct vdso_image *image, unsigned long addr)
         * abusing from userspace install_speciall_mapping, which may
         * not do accounting and rlimit right.
         * We could search vma near context.vdso, but it's a slowpath,
-        * so let's explicitely check all VMAs to be completely sure.
+        * so let's explicitly check all VMAs to be completely sure.
         */
        for (vma = mm->mmap; vma; vma = vma->vm_next) {
                if (vma_is_special_mapping(vma, &vdso_mapping) ||
index 24ffa1e88cf948ecbe9839f6d956c69a12ecd4f0..a01ef1b0f8833fd08285ef18f7307fada4d3c059 100644 (file)
@@ -589,7 +589,7 @@ static __init int bts_init(void)
                 * the AUX buffer.
                 *
                 * However, since this driver supports per-CPU and per-task inherit
-                * we cannot use the user mapping since it will not be availble
+                * we cannot use the user mapping since it will not be available
                 * if we're not running the owning process.
                 *
                 * With PTI we can't use the kernal map either, because its not
index ecc3e34ca955f720579aef805afe26f2b49a9e57..40e12cfc87f62eb5b68490053c0861ac05af18e6 100644 (file)
@@ -1930,7 +1930,7 @@ static void intel_pmu_enable_all(int added)
  *   in sequence on the same PMC or on different PMCs.
  *
  * In practise it appears some of these events do in fact count, and
- * we need to programm all 4 events.
+ * we need to program all 4 events.
  */
 static void intel_pmu_nhm_workaround(void)
 {
index b7b01d762d32a3a6a30f4e2bd640aeae23dd7a3f..e9acf1d2e7b28874a3708c21ea59f75591650312 100644 (file)
@@ -1199,7 +1199,7 @@ static void setup_pebs_sample_data(struct perf_event *event,
        /*
         * We must however always use iregs for the unwinder to stay sane; the
         * record BP,SP,IP can point into thin air when the record is from a
-        * previous PMI context or an (I)RET happend between the record and
+        * previous PMI context or an (I)RET happened between the record and
         * PMI.
         */
        if (sample_type & PERF_SAMPLE_CALLCHAIN)
index d32c0eed38ca92665d378fa2d0792eed12aad818..dee579efb2b23048b0c43e475564e179e20c2181 100644 (file)
@@ -1259,7 +1259,7 @@ again:
                }
                /*
                 * Perf does test runs to see if a whole group can be assigned
-                * together succesfully.  There can be multiple rounds of this.
+                * together successfully.  There can be multiple rounds of this.
                 * Unfortunately, p4_pmu_swap_config_ts touches the hwc->config
                 * bits, such that the next round of group assignments will
                 * cause the above p4_should_swap_ts to pass instead of fail.
index d7faa16622d81d39ff11d703fad17ed7931cce86..ea9886651c3972681db9d49d0753b65d75fe97a0 100644 (file)
@@ -167,7 +167,7 @@ static inline int alternatives_text_reserved(void *start, void *end)
 /*
  * Alternative inline assembly with input.
  *
- * Pecularities:
+ * Peculiarities:
  * No memory clobber here.
  * Argument numbers start with 1.
  * Best is to use constraints that are fixed size (like (%1) ... "r")
index bfb85e5844ab8348a2b9332870ce3b5dcd67cbe5..a8bfac13125650e5bd725f3506dc39504ae73d61 100644 (file)
@@ -7,7 +7,7 @@
 #include <asm/alternative.h> /* Provides LOCK_PREFIX */
 
 /*
- * Non-existant functions to indicate usage errors at link time
+ * Non-existent functions to indicate usage errors at link time
  * (or compile-time if the compiler implements __compiletime_error().
  */
 extern void __xchg_wrong_size(void)
index eea40d52ca78547a6b578ff8883da069ddb29d3f..db45773a63b61e2f692d3506db9f0637ff6820eb 100644 (file)
@@ -19,7 +19,7 @@
  * This is the main reason why we're doing stable VA mappings for RT
  * services.
  *
- * This flag is used in conjuction with a chicken bit called
+ * This flag is used in conjunction with a chicken bit called
  * "efi=old_map" which can be used as a fallback to the old runtime
  * services mapping method in case there's some b0rkage with a
  * particular EFI implementation (haha, it is hard to hold up the
index 06635fbca81c0359c170bc1ef2266e499f526983..2624de16cd7abd3d3443d411abc5fb57919e5f70 100644 (file)
@@ -848,7 +848,7 @@ EXPORT_SYMBOL(acpi_unregister_ioapic);
 /**
  * acpi_ioapic_registered - Check whether IOAPIC assoicatied with @gsi_base
  *                         has been registered
- * @handle:    ACPI handle of the IOAPIC deivce
+ * @handle:    ACPI handle of the IOAPIC device
  * @gsi_base:  GSI base associated with the IOAPIC
  *
  * Assume caller holds some type of lock to serialize acpi_ioapic_registered()
index 36d2696c9563e88a8e354068d7e8a43d636371d3..6b4826166dec1db9fb5ccc2e93fe75ad218711f6 100644 (file)
@@ -686,7 +686,7 @@ DEFINE_PER_CPU(unsigned, mce_poll_count);
  * errors here. However this would be quite problematic --
  * we would need to reimplement the Monarch handling and
  * it would mess up the exclusion between exception handler
- * and poll hander -- * so we skip this for now.
+ * and poll handler -- * so we skip this for now.
  * These cases should not happen anyways, or only when the CPU
  * is already totally * confused. In this case it's likely it will
  * not fully execute the machine check handler either.
index eb8ab3915268d2ab5e1f170a361bf079bdd1ac75..22369dd5de3b87788dededb535bdf991cfdb3cb6 100644 (file)
@@ -62,7 +62,7 @@ ssize_t copy_oldmem_page(unsigned long pfn, char *buf, size_t csize,
 
 /**
  * copy_oldmem_page_encrypted - same as copy_oldmem_page() above but ioremap the
- * memory with the encryption mask set to accomodate kdump on SME-enabled
+ * memory with the encryption mask set to accommodate kdump on SME-enabled
  * machines.
  */
 ssize_t copy_oldmem_page_encrypted(unsigned long pfn, char *buf, size_t csize,
index bbfbf017065c387c76f3f7c6394f34816fb7a4f5..6a567f7e315b08fdefcd62bf53dc89614094ae35 100644 (file)
@@ -684,7 +684,7 @@ void set_personality_64bit(void)
        /* TBD: overwrites user setup. Should have two bits.
           But 64bit processes have always behaved this way,
           so it's not too bad. The main problem is just that
-          32bit childs are affected again. */
+          32bit children are affected again. */
        current->personality &= ~READ_IMPLIES_EXEC;
 }
 
index 02edd9960e9d94cf8cbac80ea1bfccc5673f3089..6415100fbe6697a2e00728fddde0a4c3e20433bf 100644 (file)
@@ -485,7 +485,7 @@ struct __packed vmcs12 {
        /*
         * To allow migration of L1 (complete with its L2 guests) between
         * machines of different natural widths (32 or 64 bit), we cannot have
-        * unsigned long fields with no explict size. We use u64 (aliased
+        * unsigned long fields with no explicit size. We use u64 (aliased
         * natural_width) instead. Luckily, x86 is little-endian.
         */
        natural_width cr0_guest_host_mask;
@@ -4936,7 +4936,7 @@ static __init int alloc_kvm_area(void)
                 * vmcs->revision_id to KVM_EVMCS_VERSION instead of
                 * revision_id reported by MSR_IA32_VMX_BASIC.
                 *
-                * However, even though not explictly documented by
+                * However, even though not explicitly documented by
                 * TLFS, VMXArea passed as VMXON argument should
                 * still be marked with revision_id reported by
                 * physical CPU.
index d02937760c3ba8adc6de37ed4b39db9a926f320d..e998f1396ec32ca9e5be04bf491cd274ac000fe2 100644 (file)
@@ -9280,7 +9280,7 @@ static void kvm_mmu_slot_apply_flags(struct kvm *kvm,
         * with dirty logging disabled in order to eliminate unnecessary GPA
         * logging in PML buffer (and potential PML buffer full VMEXT). This
         * guarantees leaving PML enabled during guest's lifetime won't have
-        * any additonal overhead from PML when guest is running with dirty
+        * any additional overhead from PML when guest is running with dirty
         * logging disabled for memory slots.
         *
         * kvm_x86_ops->slot_enable_log_dirty is called when switching new slot
index db7a1008223886d398c531d8d34720cd0265d17d..c353a0f1db398578d24698031d7a6c233b32af0d 100644 (file)
@@ -1704,7 +1704,7 @@ static int change_page_attr_set_clr(unsigned long *addr, int numpages,
        } else if (!(in_flag & CPA_PAGES_ARRAY)) {
                /*
                 * in_flag of CPA_PAGES_ARRAY implies it is aligned.
-                * No need to cehck in that case
+                * No need to check in that case
                 */
                if (*addr & ~PAGE_MASK) {
                        *addr &= PAGE_MASK;
index ce4b06733c0920c4032ad25f0ab4619ff8470feb..b3233b1835eaf031436c3b67981a861e4026df7f 100644 (file)
@@ -84,7 +84,7 @@ static void ce4100_mem_serial_out(struct uart_port *p, int offset, int value)
 }
 
 static void ce4100_serial_fixup(int port, struct uart_port *up,
-       u32 *capabilites)
+       u32 *capabilities)
 {
 #ifdef CONFIG_EARLY_PRINTK
        /*
@@ -111,7 +111,7 @@ static void ce4100_serial_fixup(int port, struct uart_port *up,
        up->serial_in = ce4100_mem_serial_in;
        up->serial_out = ce4100_mem_serial_out;
 
-       *capabilites |= (1 << 12);
+       *capabilities |= (1 << 12);
 }
 
 static __init void sdv_serial_fixup(void)
index dbfc5cf2aa9310b62f405bb1cd53fc89a7ad4a00..96f438d4b026f397f306feb2bd64b11d20602192 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * platform_bcm43xx.c: bcm43xx platform data initilization file
+ * platform_bcm43xx.c: bcm43xx platform data initialization file
  *
  * (C) Copyright 2016 Intel Corporation
  * Author: Andy Shevchenko <andriy.shevchenko@linux.intel.com>
index 27186ad654c97846a42ef61f850d48affd602048..7a7fc54c449ba7647fac3a6530b48f607621a950 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * spidev platform data initilization file
+ * spidev platform data initialization file
  *
  * (C) Copyright 2014, 2016 Intel Corporation
  * Authors: Andy Shevchenko <andriy.shevchenko@linux.intel.com>
index 429a94192671e814a2e151c85121c1e9ba224f9e..8344d5a928c9209d2bf101c160288bd8eb2f08d9 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * PCAL9555a platform data initilization file
+ * PCAL9555a platform data initialization file
  *
  * Copyright (C) 2016, Intel Corporation
  *
index 2e569d10f2d083c1fbf4fd2125aaec6534861838..a9f2e888e13593eda7532fe5d1792ecc0865cb80 100644 (file)
@@ -13,7 +13,7 @@
  *
  *
  * The IOSF-SB is a fabric bus available on Atom based SOC's that uses a
- * mailbox interface (MBI) to communicate with mutiple devices. This
+ * mailbox interface (MBI) to communicate with multiple devices. This
  * driver implements access to this interface for those platforms that can
  * enumerate the device using PCI.
  */
index 7fa8b3b53bc0a563737f1d32de8e467b79d85ce0..d9b8a1c1ab0fe5bf8c5cd054cdbabfec099ebcf5 100644 (file)
@@ -109,7 +109,7 @@ static void detect_lid_state(void)
         * the edge detector hookup on the gpio inputs on the geode is
         * odd, to say the least.  See http://dev.laptop.org/ticket/5703
         * for details, but in a nutshell:  we don't use the edge
-        * detectors.  instead, we make use of an anomoly:  with the both
+        * detectors.  instead, we make use of an anomaly:  with the both
         * edge detectors turned off, we still get an edge event on a
         * positive edge transition.  to take advantage of this, we use the
         * front-end inverter to ensure that that's the edge we're always
index 5f64f30873e257757091b88f8e263711d8db548f..b21a932c220c4e52cc5a6e2c0059de6b645f9faf 100644 (file)
@@ -560,7 +560,7 @@ static inline void uv_clear_nmi(int cpu)
        }
 }
 
-/* Ping non-responding CPU's attemping to force them into the NMI handler */
+/* Ping non-responding CPU's attempting to force them into the NMI handler */
 static void uv_nmi_nr_cpus_ping(void)
 {
        int cpu;
index 075ed47993bbf5c1bf9b760511268613c035d8c1..d5f303c0e6563041b3c9e7fa5cff8dc47e9af840 100644 (file)
@@ -493,7 +493,7 @@ static unsigned long __init xen_foreach_remap_area(unsigned long nr_pages,
  * The remap information (which mfn remap to which pfn) is contained in the
  * to be remapped memory itself in a linked list anchored at xen_remap_mfn.
  * This scheme allows to remap the different chunks in arbitrary order while
- * the resulting mapping will be independant from the order.
+ * the resulting mapping will be independent from the order.
  */
 void __init xen_remap_memory(void)
 {