]> git.saurik.com Git - apple/xnu.git/blobdiff - osfmk/i386/ucode.c
xnu-6153.41.3.tar.gz
[apple/xnu.git] / osfmk / i386 / ucode.c
index 15e0e5103f474387241243231af3a99be29be861..13925061727b24b95c675e226f4f2cd971e88e70 100644 (file)
@@ -1,5 +1,5 @@
 /*
 /*
- * Copyright (c) 2017 Apple Inc. All rights reserved.
+ * Copyright (c) 2017-2019 Apple Inc. All rights reserved.
  *
  * @APPLE_OSREFERENCE_LICENSE_HEADER_START@
  *
  *
  * @APPLE_OSREFERENCE_LICENSE_HEADER_START@
  *
@@ -37,7 +37,8 @@
 #include <i386/proc_reg.h>
 #include <i386/cpuid.h>
 #include <vm/vm_kern.h>
 #include <i386/proc_reg.h>
 #include <i386/cpuid.h>
 #include <vm/vm_kern.h>
-#include <i386/mp.h>                   // mp_broadcast
+#include <i386/mp.h>                    // mp_cpus_call
+#include <i386/commpage/commpage.h>
 #include <i386/fpu.h>
 #include <machine/cpu_number.h> // cpu_number
 #include <pexpert/pexpert.h>  // boot-args
 #include <i386/fpu.h>
 #include <machine/cpu_number.h> // cpu_number
 #include <pexpert/pexpert.h>  // boot-args
@@ -67,41 +68,48 @@ static kern_return_t
 register_locks(void)
 {
        /* already allocated? */
 register_locks(void)
 {
        /* already allocated? */
-       if (ucode_slock_grp_attr && ucode_slock_grp && ucode_slock_attr && ucode_slock)
+       if (ucode_slock_grp_attr && ucode_slock_grp && ucode_slock_attr && ucode_slock) {
                return KERN_SUCCESS;
                return KERN_SUCCESS;
+       }
 
        /* allocate lock group attribute and group */
 
        /* allocate lock group attribute and group */
-       if (!(ucode_slock_grp_attr = lck_grp_attr_alloc_init()))
+       if (!(ucode_slock_grp_attr = lck_grp_attr_alloc_init())) {
                goto nomem_out;
                goto nomem_out;
+       }
 
 
-       lck_grp_attr_setstat(ucode_slock_grp_attr);
-
-       if (!(ucode_slock_grp = lck_grp_alloc_init("uccode_lock", ucode_slock_grp_attr)))
+       if (!(ucode_slock_grp = lck_grp_alloc_init("uccode_lock", ucode_slock_grp_attr))) {
                goto nomem_out;
                goto nomem_out;
+       }
 
        /* Allocate lock attribute */
 
        /* Allocate lock attribute */
-       if (!(ucode_slock_attr = lck_attr_alloc_init()))
+       if (!(ucode_slock_attr = lck_attr_alloc_init())) {
                goto nomem_out;
                goto nomem_out;
+       }
 
        /* Allocate the spin lock */
        /* We keep one global spin-lock. We could have one per update
         * request... but srsly, why would you update microcode like that?
         */
 
        /* Allocate the spin lock */
        /* We keep one global spin-lock. We could have one per update
         * request... but srsly, why would you update microcode like that?
         */
-       if (!(ucode_slock = lck_spin_alloc_init(ucode_slock_grp, ucode_slock_attr)))
+       if (!(ucode_slock = lck_spin_alloc_init(ucode_slock_grp, ucode_slock_attr))) {
                goto nomem_out;
                goto nomem_out;
+       }
 
        return KERN_SUCCESS;
 
 nomem_out:
        /* clean up */
 
        return KERN_SUCCESS;
 
 nomem_out:
        /* clean up */
-       if (ucode_slock)
+       if (ucode_slock) {
                lck_spin_free(ucode_slock, ucode_slock_grp);
                lck_spin_free(ucode_slock, ucode_slock_grp);
-       if (ucode_slock_attr)
+       }
+       if (ucode_slock_attr) {
                lck_attr_free(ucode_slock_attr);
                lck_attr_free(ucode_slock_attr);
-       if (ucode_slock_grp)
+       }
+       if (ucode_slock_grp) {
                lck_grp_free(ucode_slock_grp);
                lck_grp_free(ucode_slock_grp);
-       if (ucode_slock_grp_attr)
+       }
+       if (ucode_slock_grp_attr) {
                lck_grp_attr_free(ucode_slock_grp_attr);
                lck_grp_attr_free(ucode_slock_grp_attr);
+       }
 
        return KERN_NO_SPACE;
 }
 
        return KERN_NO_SPACE;
 }
@@ -118,28 +126,31 @@ copyin_update(uint64_t inaddr)
 
        /* Copy in enough header to peek at the size */
        error = copyin((user_addr_t)inaddr, (void *)&update_header, sizeof(update_header));
 
        /* Copy in enough header to peek at the size */
        error = copyin((user_addr_t)inaddr, (void *)&update_header, sizeof(update_header));
-       if (error)
+       if (error) {
                return error;
                return error;
+       }
 
        /* Get the actual, alleged size */
        size = update_header.total_size;
 
        /* huge bogus piece of data that somehow made it through? */
 
        /* Get the actual, alleged size */
        size = update_header.total_size;
 
        /* huge bogus piece of data that somehow made it through? */
-       if (size >= 1024 * 1024)
+       if (size >= 1024 * 1024) {
                return ENOMEM;
                return ENOMEM;
+       }
 
        /* Old microcodes? */
 
        /* Old microcodes? */
-       if (size == 0)
+       if (size == 0) {
                size = 2048; /* default update size; see SDM */
                size = 2048; /* default update size; see SDM */
-
+       }
        /*
         * create the buffer for the update
         * It need only be aligned to 16-bytes, according to the SDM.
         * This also wires it down
         */
        ret = kmem_alloc_kobject(kernel_map, (vm_offset_t *)&update, size, VM_KERN_MEMORY_OSFMK);
        /*
         * create the buffer for the update
         * It need only be aligned to 16-bytes, according to the SDM.
         * This also wires it down
         */
        ret = kmem_alloc_kobject(kernel_map, (vm_offset_t *)&update, size, VM_KERN_MEMORY_OSFMK);
-       if (ret != KERN_SUCCESS)
+       if (ret != KERN_SUCCESS) {
                return ENOMEM;
                return ENOMEM;
+       }
 
        /* Copy it in */
        error = copyin((user_addr_t)inaddr, (void*)update, size);
 
        /* Copy it in */
        error = copyin((user_addr_t)inaddr, (void*)update, size);
@@ -152,6 +163,27 @@ copyin_update(uint64_t inaddr)
        return 0;
 }
 
        return 0;
 }
 
+static void
+cpu_apply_microcode(void)
+{
+       /* grab the lock */
+       lck_spin_lock(ucode_slock);
+
+       /* execute the update */
+       update_microcode();
+
+       /* release the lock */
+       lck_spin_unlock(ucode_slock);
+}
+
+static void
+cpu_update(__unused void *arg)
+{
+       cpu_apply_microcode();
+
+       cpuid_do_was();
+}
+
 /*
  * This is called once by every CPU on a wake from sleep/hibernate
  * and is meant to re-apply a microcode update that got lost
 /*
  * This is called once by every CPU on a wake from sleep/hibernate
  * and is meant to re-apply a microcode update that got lost
@@ -162,7 +194,7 @@ ucode_update_wake()
 {
        if (global_update) {
                kprintf("ucode: Re-applying update after wake (CPU #%d)\n", cpu_number());
 {
        if (global_update) {
                kprintf("ucode: Re-applying update after wake (CPU #%d)\n", cpu_number());
-               update_microcode();
+               cpu_update(NULL);
 #if DEBUG
        } else {
                kprintf("ucode: No update to apply (CPU #%d)\n", cpu_number());
 #if DEBUG
        } else {
                kprintf("ucode: No update to apply (CPU #%d)\n", cpu_number());
@@ -170,19 +202,6 @@ ucode_update_wake()
        }
 }
 
        }
 }
 
-static void
-cpu_update(__unused void *arg)
-{
-       /* grab the lock */
-       lck_spin_lock(ucode_slock);
-
-       /* execute the update */
-       update_microcode();
-
-       /* release the lock */
-       lck_spin_unlock(ucode_slock);
-}
-
 static void
 ucode_cpuid_set_info(void)
 {
 static void
 ucode_cpuid_set_info(void)
 {
@@ -222,14 +241,30 @@ ucode_cpuid_set_info(void)
 static void
 xcpu_update(void)
 {
 static void
 xcpu_update(void)
 {
-       if (register_locks() != KERN_SUCCESS)
-               return;
+       cpumask_t dest_cpumask;
 
 
-       /* Get all CPUs to perform the update */
-       mp_broadcast(cpu_update, NULL);
+       if (register_locks() != KERN_SUCCESS) {
+               return;
+       }
 
 
+       mp_disable_preemption();
+       dest_cpumask = CPUMASK_OTHERS;
+       cpu_apply_microcode();
        /* Update the cpuid info */
        ucode_cpuid_set_info();
        /* Update the cpuid info */
        ucode_cpuid_set_info();
+       mp_enable_preemption();
+
+       /* Get all other CPUs to perform the update */
+       /*
+        * Calling mp_cpus_call with the ASYNC flag ensures that the
+        * IPI dispatch occurs in parallel, but that we will not
+        * proceed until all targeted CPUs complete the microcode
+        * update.
+        */
+       mp_cpus_call(dest_cpumask, ASYNC, cpu_update, NULL);
+
+       /* Update the commpage only after we update all CPUs' microcode */
+       commpage_post_ucode_update();
 }
 
 /*
 }
 
 /*
@@ -240,9 +275,9 @@ int
 ucode_interface(uint64_t addr)
 {
        int error;
 ucode_interface(uint64_t addr)
 {
        int error;
-       char arg[16]; 
+       char arg[16];
 
 
-       if (PE_parse_boot_argn("-x", arg, sizeof (arg))) {
+       if (PE_parse_boot_argn("-x", arg, sizeof(arg))) {
                printf("ucode: no updates in safe mode\n");
                return EPERM;
        }
                printf("ucode: no updates in safe mode\n");
                return EPERM;
        }
@@ -253,15 +288,17 @@ ucode_interface(uint64_t addr)
         * would not make sense (all updates are cumulative), and also
         * leak memory, because we don't free previous updates.
         */
         * would not make sense (all updates are cumulative), and also
         * leak memory, because we don't free previous updates.
         */
-       if (global_update)
+       if (global_update) {
                return EPERM;
                return EPERM;
+       }
 #endif
 
        /* Get the whole microcode */
        error = copyin_update(addr);
 
 #endif
 
        /* Get the whole microcode */
        error = copyin_update(addr);
 
-       if (error)
+       if (error) {
                return error;
                return error;
+       }
 
        /* Farm out the updates */
        xcpu_update();
 
        /* Farm out the updates */
        xcpu_update();