extern void lock_vector_lock(void);
 extern void unlock_vector_lock(void);
 #ifdef CONFIG_SMP
-extern void send_cleanup_vector(struct irq_cfg *);
+extern void vector_schedule_cleanup(struct irq_cfg *);
 extern void irq_complete_move(struct irq_cfg *cfg);
 #else
-static inline void send_cleanup_vector(struct irq_cfg *c) { }
+static inline void vector_schedule_cleanup(struct irq_cfg *c) { }
 static inline void irq_complete_move(struct irq_cfg *c) { }
 #endif
 
 
        raw_spin_unlock(&vector_lock);
 }
 
-static void __send_cleanup_vector(struct apic_chip_data *apicd)
+static void __vector_schedule_cleanup(struct apic_chip_data *apicd)
 {
        unsigned int cpu;
 
        raw_spin_unlock(&vector_lock);
 }
 
-void send_cleanup_vector(struct irq_cfg *cfg)
+void vector_schedule_cleanup(struct irq_cfg *cfg)
 {
        struct apic_chip_data *apicd;
 
        apicd = container_of(cfg, struct apic_chip_data, hw_irq_cfg);
        if (apicd->move_in_progress)
-               __send_cleanup_vector(apicd);
+               __vector_schedule_cleanup(apicd);
 }
 
 void irq_complete_move(struct irq_cfg *cfg)
         * on the same CPU.
         */
        if (apicd->cpu == smp_processor_id())
-               __send_cleanup_vector(apicd);
+               __vector_schedule_cleanup(apicd);
 }
 
 /*
 
        ret = parent->chip->irq_set_affinity(parent, mask, force);
        if (ret >= 0) {
                uv_program_mmr(cfg, data->chip_data);
-               send_cleanup_vector(cfg);
+               vector_schedule_cleanup(cfg);
        }
 
        return ret;
 
         * at the new destination. So, time to cleanup the previous
         * vector allocation.
         */
-       send_cleanup_vector(cfg);
+       vector_schedule_cleanup(cfg);
 
        return IRQ_SET_MASK_OK_DONE;
 }
 
        if (ret < 0 || ret == IRQ_SET_MASK_OK_DONE)
                return ret;
 
-       send_cleanup_vector(cfg);
+       vector_schedule_cleanup(cfg);
 
        return 0;
 }
        if (ret < 0 || ret == IRQ_SET_MASK_OK_DONE)
                return ret;
 
-       send_cleanup_vector(cfg);
+       vector_schedule_cleanup(cfg);
 
        return 0;
 }
 
         * at the new destination. So, time to cleanup the previous
         * vector allocation.
         */
-       send_cleanup_vector(cfg);
+       vector_schedule_cleanup(cfg);
 
        return IRQ_SET_MASK_OK_DONE;
 }