]> git.saurik.com Git - apple/xnu.git/blobdiff - osfmk/x86_64/locore.s
xnu-6153.11.26.tar.gz
[apple/xnu.git] / osfmk / x86_64 / locore.s
index d88f2a08a32dd77eb9631712b9a2ef0ad68f9923..4c71fd46186194cd2ebbe8f2896b94be30a5a86c 100644 (file)
@@ -319,35 +319,85 @@ _bcopystr_fail:
        ret
 
 /*
- * Copyin 32 or 64 bit aligned word as a single transaction
+ * Copyin 32 bit aligned word as a single transaction
  * rdi: source address (user)
  * rsi: destination address (kernel)
- * rdx: size (4 or 8)
  */
-Entry(_copyin_word)
+Entry(_copyin_atomic32)
        pushq   %rbp                    /* Save registers */
        movq    %rsp, %rbp
-       cmpl    $0x4, %edx              /* If size = 4 */
-       je      L_copyin_word_4         /*      handle 32-bit load */
-       movl    $(EINVAL), %eax         /* Set up error status */
-       cmpl    $0x8, %edx              /* If size != 8 */
-       jne     L_copyin_word_exit      /*      exit with error */
        RECOVERY_SECTION
-       RECOVER(L_copyin_word_fail)     /* Set up recovery handler for next instruction*/
-       movq    (%rdi), %rax            /* Load quad from user */
-       jmp     L_copyin_word_store
-L_copyin_word_4:
-       RECOVERY_SECTION
-       RECOVER(L_copyin_word_fail)     /* Set up recovery handler for next instruction */
+       RECOVER(L_copyin_atomic32_fail) /* Set up recovery handler for next instruction */
        movl    (%rdi), %eax            /* Load long from user */
-L_copyin_word_store:
+       movl    %eax, (%rsi)            /* Store to kernel */
+       xorl    %eax, %eax              /* Return success */
+       popq    %rbp                    /* Restore registers */
+       retq                            /* Return */
+
+L_copyin_atomic32_fail:
+       movl    $(EFAULT), %eax         /* Return error for failure */
+       popq    %rbp                    /* Restore registers */
+       retq                            /* Return */
+
+/*
+ * Copyin 64 bit aligned word as a single transaction
+ * rdi: source address (user)
+ * rsi: destination address (kernel)
+ */
+Entry(_copyin_atomic64)
+       pushq   %rbp                    /* Save registers */
+       movq    %rsp, %rbp
+       RECOVERY_SECTION
+       RECOVER(L_copyin_atomic64_fail) /* Set up recovery handler for next instruction*/
+       movq    (%rdi), %rax            /* Load quad from user */
        movq    %rax, (%rsi)            /* Store to kernel */
        xorl    %eax, %eax              /* Return success */
-L_copyin_word_exit:
        popq    %rbp                    /* Restore registers */
        retq                            /* Return */
 
-L_copyin_word_fail:
+L_copyin_atomic64_fail:
+       movl    $(EFAULT), %eax         /* Return error for failure */
+       popq    %rbp                    /* Restore registers */
+       retq                            /* Return */
+
+/*
+ * Copyin 32 bit aligned word as a single transaction
+ * rdi: source address (kernel)
+ * rsi: destination address (user)
+ */
+Entry(_copyout_atomic32)
+       pushq   %rbp                    /* Save registers */
+       movq    %rsp, %rbp
+       movl    (%rdi), %eax            /* Load long from kernel */
+       RECOVERY_SECTION
+       RECOVER(L_copyout_atomic32_fail)        /* Set up recovery handler for next instruction*/
+       movl    %eax, (%rsi)            /* Store long to user */
+       xorl    %eax, %eax              /* Return success */
+       popq    %rbp                    /* Restore registers */
+       retq                            /* Return */
+
+L_copyout_atomic32_fail:
+       movl    $(EFAULT), %eax         /* Return error for failure */
+       popq    %rbp                    /* Restore registers */
+       retq                            /* Return */
+
+/*
+ * Copyin 64 bit aligned word as a single transaction
+ * rdi: source address (kernel)
+ * rsi: destination address (user)
+ */
+Entry(_copyout_atomic64)
+       pushq   %rbp                    /* Save registers */
+       movq    %rsp, %rbp
+       movq    (%rdi), %rax            /* Load quad from kernel */
+       RECOVERY_SECTION
+       RECOVER(L_copyout_atomic64_fail)        /* Set up recovery handler for next instruction*/
+       movq    %rax, (%rsi)            /* Store quad to user */
+       xorl    %eax, %eax              /* Return success */
+       popq    %rbp                    /* Restore registers */
+       retq                            /* Return */
+
+L_copyout_atomic64_fail:
        movl    $(EFAULT), %eax         /* Return error for failure */
        popq    %rbp                    /* Restore registers */
        retq                            /* Return */