sched: Fix leftover comment typos
authorIngo Molnar <mingo@kernel.org>
Wed, 12 May 2021 17:51:31 +0000 (19:51 +0200)
committerIngo Molnar <mingo@kernel.org>
Wed, 12 May 2021 17:54:49 +0000 (19:54 +0200)
A few more snuck in. Also capitalize 'CPU' while at it.

Signed-off-by: Ingo Molnar <mingo@kernel.org>
include/linux/sched_clock.h
kernel/sched/core.c
kernel/sched/fair.c

index 528718e4ed5289a7a177772578a0ad88c0ce3b51..835ee87ed79228d846fdf9c20ff4aa993cb07a60 100644 (file)
@@ -14,7 +14,7 @@
  * @sched_clock_mask:   Bitmask for two's complement subtraction of non 64bit
  *                     clocks.
  * @read_sched_clock:  Current clock source (or dummy source when suspended).
- * @mult:              Multipler for scaled math conversion.
+ * @mult:              Multiplier for scaled math conversion.
  * @shift:             Shift value for scaled math conversion.
  *
  * Care must be taken when updating this structure; it is read by
index 9d00f4958bde755cce7e3daec3a8b514683b9586..ac8882da5daf0f67471b5b9244ce1c9bc78dcd63 100644 (file)
@@ -5506,7 +5506,7 @@ pick_next_task(struct rq *rq, struct task_struct *prev, struct rq_flags *rf)
        }
 
        /*
-        * Try and select tasks for each sibling in decending sched_class
+        * Try and select tasks for each sibling in descending sched_class
         * order.
         */
        for_each_class(class) {
@@ -5520,7 +5520,7 @@ again:
 
                        /*
                         * If this sibling doesn't yet have a suitable task to
-                        * run; ask for the most elegible task, given the
+                        * run; ask for the most eligible task, given the
                         * highest priority task already selected for this
                         * core.
                         */
index 2635e1048421396f9aa041c9080e235b9d1c0770..161b92aa1c797dd176b354b54d9d91c432165c70 100644 (file)
@@ -10808,11 +10808,11 @@ static inline void task_tick_core(struct rq *rq, struct task_struct *curr)
         * sched_slice() considers only this active rq and it gets the
         * whole slice. But during force idle, we have siblings acting
         * like a single runqueue and hence we need to consider runnable
-        * tasks on this cpu and the forced idle cpu. Ideally, we should
+        * tasks on this CPU and the forced idle CPU. Ideally, we should
         * go through the forced idle rq, but that would be a perf hit.
-        * We can assume that the forced idle cpu has atleast
+        * We can assume that the forced idle CPU has at least
         * MIN_NR_TASKS_DURING_FORCEIDLE - 1 tasks and use that to check
-        * if we need to give up the cpu.
+        * if we need to give up the CPU.
         */
        if (rq->core->core_forceidle && rq->cfs.nr_running == 1 &&
            __entity_slice_used(&curr->se, MIN_NR_TASKS_DURING_FORCEIDLE))