perf/x86/amd/uncore: Add group exclusivity
authorSandipan Das <sandipan.das@amd.com>
Thu, 5 Oct 2023 05:23:14 +0000 (10:53 +0530)
committerPeter Zijlstra <peterz@infradead.org>
Mon, 9 Oct 2023 14:12:24 +0000 (16:12 +0200)
In some cases, it may be necessary to restrict opening PMU events to a
subset of CPUs. E.g. Unified Memory Controller (UMC) PMUs are specific
to each active memory channel and the MSR address space for the PERF_CTL
and PERF_CTR registers is reused on each socket. Thus, opening events
for a specific UMC PMU should be restricted to CPUs belonging to the
same socket as that of the UMC. The "cpumask" of the PMU should also
reflect this accordingly.

Uncore PMUs which require this can use the new group attribute in struct
amd_uncore_pmu to set a valid group ID during the scan() phase. Later,
during init(), an uncore context for a CPU will be unavailable if the
group ID does not match.

Signed-off-by: Sandipan Das <sandipan.das@amd.com>
Signed-off-by: Peter Zijlstra (Intel) <peterz@infradead.org>
Link: https://lore.kernel.org/r/937d6d71010a48ea4e069f4904b3116a5f99ecdf.1696425185.git.sandipan.das@amd.com
arch/x86/events/amd/uncore.c

index 2fe62392303409d51b0313a34d9df8e89f97bc99..318982951dd2fd969cfa3fffee5bc7d77f9f2d14 100644 (file)
@@ -27,6 +27,7 @@
 
 #define COUNTER_SHIFT          16
 #define UNCORE_NAME_LEN                16
+#define UNCORE_GROUP_MAX       256
 
 #undef pr_fmt
 #define pr_fmt(fmt)    "amd_uncore: " fmt
@@ -45,6 +46,7 @@ struct amd_uncore_pmu {
        int num_counters;
        int rdpmc_base;
        u32 msr_base;
+       int group;
        cpumask_t active_mask;
        struct pmu pmu;
        struct amd_uncore_ctx * __percpu *ctx;
@@ -61,6 +63,7 @@ union amd_uncore_info {
        struct {
                u64     aux_data:32;    /* auxiliary data */
                u64     num_pmcs:8;     /* number of counters */
+               u64     gid:8;          /* group id */
                u64     cid:8;          /* context id */
        } split;
        u64             full;
@@ -371,6 +374,13 @@ int amd_uncore_ctx_cid(struct amd_uncore *uncore, unsigned int cpu)
        return info->split.cid;
 }
 
+static __always_inline
+int amd_uncore_ctx_gid(struct amd_uncore *uncore, unsigned int cpu)
+{
+       union amd_uncore_info *info = per_cpu_ptr(uncore->info, cpu);
+       return info->split.gid;
+}
+
 static __always_inline
 int amd_uncore_ctx_num_pmcs(struct amd_uncore *uncore, unsigned int cpu)
 {
@@ -409,18 +419,23 @@ static int amd_uncore_ctx_init(struct amd_uncore *uncore, unsigned int cpu)
 {
        struct amd_uncore_ctx *curr, *prev;
        struct amd_uncore_pmu *pmu;
-       int node, cid, i, j;
+       int node, cid, gid, i, j;
 
        if (!uncore->init_done || !uncore->num_pmus)
                return 0;
 
        cid = amd_uncore_ctx_cid(uncore, cpu);
+       gid = amd_uncore_ctx_gid(uncore, cpu);
 
        for (i = 0; i < uncore->num_pmus; i++) {
                pmu = &uncore->pmus[i];
                *per_cpu_ptr(pmu->ctx, cpu) = NULL;
                curr = NULL;
 
+               /* Check for group exclusivity */
+               if (gid != pmu->group)
+                       continue;
+
                /* Find a sibling context */
                for_each_online_cpu(j) {
                        if (cpu == j)
@@ -603,6 +618,7 @@ void amd_uncore_df_ctx_scan(struct amd_uncore *uncore, unsigned int cpu)
 
        info.split.aux_data = 0;
        info.split.num_pmcs = NUM_COUNTERS_NB;
+       info.split.gid = 0;
        info.split.cid = topology_die_id(cpu);
 
        if (pmu_version >= 2) {
@@ -641,6 +657,7 @@ int amd_uncore_df_ctx_init(struct amd_uncore *uncore, unsigned int cpu)
        pmu->num_counters = amd_uncore_ctx_num_pmcs(uncore, cpu);
        pmu->msr_base = MSR_F15H_NB_PERF_CTL;
        pmu->rdpmc_base = RDPMC_BASE_NB;
+       pmu->group = amd_uncore_ctx_gid(uncore, cpu);
 
        if (pmu_version >= 2) {
                *df_attr++ = &format_attr_event14v2.attr;
@@ -734,6 +751,7 @@ void amd_uncore_l3_ctx_scan(struct amd_uncore *uncore, unsigned int cpu)
 
        info.split.aux_data = 0;
        info.split.num_pmcs = NUM_COUNTERS_L2;
+       info.split.gid = 0;
        info.split.cid = get_llc_id(cpu);
 
        if (boot_cpu_data.x86 >= 0x17)
@@ -770,6 +788,7 @@ int amd_uncore_l3_ctx_init(struct amd_uncore *uncore, unsigned int cpu)
        pmu->num_counters = amd_uncore_ctx_num_pmcs(uncore, cpu);
        pmu->msr_base = MSR_F16H_L2I_PERF_CTL;
        pmu->rdpmc_base = RDPMC_BASE_LLC;
+       pmu->group = amd_uncore_ctx_gid(uncore, cpu);
 
        if (boot_cpu_data.x86 >= 0x17) {
                *l3_attr++ = &format_attr_event8.attr;