xnu-1504.15.3.tar.gz
[apple/xnu.git] / osfmk / device / iokit_rpc.c
index a61ad9276f9eacb07f7a17ee4a97c7ac80bf511b..5990a3e5c8a79527b5cf1e8a34cf19603212d425 100644 (file)
@@ -1,23 +1,29 @@
 /*
- * Copyright (c) 2000 Apple Computer, Inc. All rights reserved.
+ * Copyright (c) 2000-2006 Apple Computer, Inc. All rights reserved.
  *
- * @APPLE_LICENSE_HEADER_START@
+ * @APPLE_OSREFERENCE_LICENSE_HEADER_START@
  * 
- * The contents of this file constitute Original Code as defined in and
- * are subject to the Apple Public Source License Version 1.1 (the
- * "License").  You may not use this file except in compliance with the
- * License.  Please obtain a copy of the License at
- * http://www.apple.com/publicsource and read it before using this file.
+ * This file contains Original Code and/or Modifications of Original Code
+ * as defined in and that are subject to the Apple Public Source License
+ * Version 2.0 (the 'License'). You may not use this file except in
+ * compliance with the License. The rights granted to you under the License
+ * may not be used to create, or enable the creation or redistribution of,
+ * unlawful or unlicensed copies of an Apple operating system, or to
+ * circumvent, violate, or enable the circumvention or violation of, any
+ * terms of an Apple operating system software license agreement.
  * 
- * This Original Code and all software distributed under the License are
- * distributed on an "AS IS" basis, WITHOUT WARRANTY OF ANY KIND, EITHER
+ * Please obtain a copy of the License at
+ * http://www.opensource.apple.com/apsl/ and read it before using this file.
+ * 
+ * The Original Code and all software distributed under the License are
+ * distributed on an 'AS IS' basis, WITHOUT WARRANTY OF ANY KIND, EITHER
  * EXPRESS OR IMPLIED, AND APPLE HEREBY DISCLAIMS ALL SUCH WARRANTIES,
  * INCLUDING WITHOUT LIMITATION, ANY WARRANTIES OF MERCHANTABILITY,
- * FITNESS FOR A PARTICULAR PURPOSE OR NON-INFRINGEMENT.  Please see the
- * License for the specific language governing rights and limitations
- * under the License.
+ * FITNESS FOR A PARTICULAR PURPOSE, QUIET ENJOYMENT OR NON-INFRINGEMENT.
+ * Please see the License for the specific language governing rights and
+ * limitations under the License.
  * 
- * @APPLE_LICENSE_HEADER_END@
+ * @APPLE_OSREFERENCE_LICENSE_HEADER_END@
  */
 #include <mach_kdb.h>
 #include <zone_debug.h>
@@ -29,7 +35,7 @@
 #include <mach/port.h>
 #include <mach/vm_param.h>
 #include <mach/notify.h>
-#include <mach/mach_host_server.h>
+//#include <mach/mach_host_server.h>
 #include <mach/mach_types.h>
 
 #include <machine/machparam.h>         /* spl definitions */
 
 #include <kern/clock.h>
 #include <kern/spl.h>
-#include <kern/ast.h>
 #include <kern/counters.h>
 #include <kern/queue.h>
 #include <kern/zalloc.h>
 #include <kern/thread.h>
-#include <kern/thread_swap.h>
 #include <kern/task.h>
 #include <kern/sched_prim.h>
 #include <kern/misc_protos.h>
@@ -61,7 +65,9 @@
 
 #ifdef __ppc__
 #include <ppc/mappings.h>
-#include <ppc/pmap_internals.h>
+#endif
+#if defined(__i386__) || defined(__x86_64__)
+#include <i386/pmap.h>
 #endif
 #include <IOKit/IOTypes.h>
 
 
 extern void iokit_add_reference( io_object_t obj );
 
-extern void iokit_remove_reference( io_object_t obj );
-
 extern ipc_port_t iokit_port_for_object( io_object_t obj,
                        ipc_kobject_type_t type );
 
 extern kern_return_t iokit_client_died( io_object_t obj,
-                        ipc_port_t port, ipc_kobject_type_t type, mach_port_mscount_t mscount );
+                        ipc_port_t port, ipc_kobject_type_t type, mach_port_mscount_t mscount );
 
 extern kern_return_t
 iokit_client_memory_for_type(
@@ -90,6 +94,47 @@ iokit_client_memory_for_type(
        vm_address_t *  address,
        vm_size_t    *  size );
 
+
+extern ppnum_t IOGetLastPageNumber(void);
+
+/*
+ * Functions imported by iokit:IOUserClient.cpp
+ */
+
+extern ipc_port_t iokit_alloc_object_port( io_object_t obj,
+                       ipc_kobject_type_t type );
+
+extern kern_return_t iokit_destroy_object_port( ipc_port_t port );
+
+extern mach_port_name_t iokit_make_send_right( task_t task,
+                               io_object_t obj, ipc_kobject_type_t type );
+
+extern kern_return_t iokit_mod_send_right( task_t task, mach_port_name_t name, mach_port_delta_t delta );
+
+extern io_object_t iokit_lookup_connect_ref(io_object_t clientRef, ipc_space_t task);
+
+extern io_object_t iokit_lookup_connect_ref_current_task(io_object_t clientRef);
+
+extern void iokit_retain_port( ipc_port_t port );
+extern void iokit_release_port( ipc_port_t port );
+extern void iokit_release_port_send( ipc_port_t port );
+
+extern kern_return_t iokit_switch_object_port( ipc_port_t port, io_object_t obj, ipc_kobject_type_t type );
+
+/*
+ * Functions imported by iokit:IOMemoryDescriptor.cpp
+ */
+
+extern kern_return_t IOMapPages(vm_map_t map, mach_vm_address_t va, mach_vm_address_t pa,
+                                 mach_vm_size_t length, unsigned int mapFlags);
+
+extern kern_return_t IOUnmapPages(vm_map_t map, mach_vm_address_t va, mach_vm_size_t length);
+
+extern kern_return_t IOProtectCacheMode(vm_map_t map, mach_vm_address_t va,
+                                       mach_vm_size_t length, unsigned int options);
+
+extern unsigned int IODefaultCacheBits(addr64_t pa);
+
 /*
  * Lookup a device by its port.
  * Doesn't consume the naked send right; produces a device reference.
@@ -143,11 +188,11 @@ iokit_lookup_connect_ref(io_object_t connectRef, ipc_space_t space)
 {
        io_object_t obj = NULL;
 
-       if (connectRef && MACH_PORT_VALID((mach_port_name_t)connectRef)) {
+       if (connectRef && MACH_PORT_VALID(CAST_MACH_PORT_TO_NAME(connectRef))) {
                ipc_port_t port;
                kern_return_t kr;
 
-               kr = ipc_object_translate(space, (mach_port_name_t)connectRef, MACH_PORT_RIGHT_SEND, (ipc_object_t *)&port);
+               kr = ipc_object_translate(space, CAST_MACH_PORT_TO_NAME(connectRef), MACH_PORT_RIGHT_SEND, (ipc_object_t *)&port);
 
                if (kr == KERN_SUCCESS) {
             assert(IP_VALID(port));
@@ -182,6 +227,12 @@ iokit_release_port( ipc_port_t port )
     ipc_port_release( port );
 }
 
+EXTERN void
+iokit_release_port_send( ipc_port_t port )
+{
+    ipc_port_release_send( port );
+}
+
 /*
  * Get the port for a device.
  * Consumes a device reference; produces a naked send right.
@@ -230,10 +281,6 @@ iokit_make_connect_port(
     return( sendPort);
 }
 
-
-EXTERN ipc_port_t
-iokit_alloc_object_port( io_object_t obj, ipc_kobject_type_t type );
-
 int gIOKitPortCount;
 
 EXTERN ipc_port_t
@@ -279,6 +326,14 @@ iokit_destroy_object_port( ipc_port_t port )
     return( KERN_SUCCESS);
 }
 
+EXTERN kern_return_t
+iokit_switch_object_port( ipc_port_t port, io_object_t obj, ipc_kobject_type_t type )
+{
+    ipc_kobject_set( port, (ipc_kobject_t) obj, type);
+
+    return( KERN_SUCCESS);
+}
+
 EXTERN mach_port_name_t
 iokit_make_send_right( task_t task, io_object_t obj, ipc_kobject_type_t type )
 {
@@ -312,6 +367,12 @@ iokit_make_send_right( task_t task, io_object_t obj, ipc_kobject_type_t type )
     return( name );
 }
 
+EXTERN kern_return_t
+iokit_mod_send_right( task_t task, mach_port_name_t name, mach_port_delta_t delta )
+{
+    return (mach_port_mod_refs( task->itk_space, name, MACH_PORT_RIGHT_SEND, delta ));
+}
+
 /*
  * Handle the No-More_Senders notification generated from a device port destroy.
  * Since there are no longer any tasks which hold a send right to this device
@@ -323,7 +384,7 @@ iokit_no_senders( mach_no_senders_notification_t * notification )
 {
     ipc_port_t         port;
     io_object_t                obj = NULL;
-    ipc_kobject_type_t type;
+    ipc_kobject_type_t type = IKOT_NONE;
     ipc_port_t         notify;
 
     port = (ipc_port_t) notification->not_header.msgh_remote_port;
@@ -374,89 +435,148 @@ iokit_notify( mach_msg_header_t * msg )
         case MACH_NOTIFY_SEND_ONCE:
         case MACH_NOTIFY_DEAD_NAME:
         default:
-            printf("iokit_notify: strange notification %ld\n", msg->msgh_id);
+            printf("iokit_notify: strange notification %d\n", msg->msgh_id);
             return FALSE;
     }
 }
 
-#ifndef i386
-unsigned int IOTranslateCacheBits(struct phys_entry *pp)
+/* need to create a pmap function to generalize */
+unsigned int IODefaultCacheBits(addr64_t pa)
 {
-       unsigned int    flags;
-       unsigned int    memattr;
-
-       /* need to create a pmap function to generalize */
-       memattr = ((pp->pte1 & 0x00000078) >> 3);
-
-       /* NOTE: DEVICE_PAGER_FLAGS are made to line up */
-       flags = memattr & VM_WIMG_MASK;
-       return flags;
+       return(pmap_cache_attributes((ppnum_t)(pa >> PAGE_SHIFT)));
 }
-#endif
 
-kern_return_t IOMapPages(vm_map_t map, vm_offset_t va, vm_offset_t pa,
-                       vm_size_t length, unsigned int options)
+kern_return_t IOMapPages(vm_map_t map, mach_vm_address_t va, mach_vm_address_t pa,
+                       mach_vm_size_t length, unsigned int options)
 {
-    vm_size_t  off;
     vm_prot_t  prot;
-    int                        memattr;
-    struct phys_entry *pp;
-    pmap_t             pmap = map->pmap;
+    unsigned int flags;
+    pmap_t      pmap = map->pmap;
 
     prot = (options & kIOMapReadOnly)
                ? VM_PROT_READ : (VM_PROT_READ|VM_PROT_WRITE);
 
-#if __ppc__
+    switch(options & kIOMapCacheMask ) {                       /* What cache mode do we need? */
 
-       switch(options & kIOMapCacheMask ) {                    /* What cache mode do we need? */
-
-               case kIOMapDefaultCache:
-               default:
-                       if(pp = pmap_find_physentry(pa)) {              /* Find physical address */
-                               memattr = ((pp->pte1 & 0x00000078) >> 3);       /* Use physical attributes as default */
-                       }
-                       else {                                                                  /* If no physical, just hard code attributes */
-                               memattr = PTE_WIMG_UNCACHED_COHERENT_GUARDED;
-                       }
-                       break;
-       
-               case kIOMapInhibitCache:
-                       memattr = PTE_WIMG_UNCACHED_COHERENT_GUARDED;
-                       break;
-       
-               case kIOMapWriteThruCache:
-                       memattr = PTE_WIMG_WT_CACHED_COHERENT_GUARDED;
-                       break;
-
-               case kIOMapCopybackCache:
-                       memattr = PTE_WIMG_CB_CACHED_COHERENT;
-                       break;
-       }
+       case kIOMapDefaultCache:
+       default:
+           flags = IODefaultCacheBits(pa);
+           break;
 
-       pmap_map_block(pmap, va, pa, length, prot, memattr, 0); /* Set up a block mapped area */
-       
-#else
-//     enter each page's physical address in the target map
-       for (off = 0; off < length; off += page_size) {         /* Loop for the whole length */
-               pmap_enter(pmap, va + off, pa + off, prot, VM_WIMG_USE_DEFAULT, TRUE);  /* Map it in */
-       }
-#endif
+       case kIOMapInhibitCache:
+           flags = VM_WIMG_IO;
+           break;
+
+       case kIOMapWriteThruCache:
+           flags = VM_WIMG_WTHRU;
+           break;
+
+       case kIOMapWriteCombineCache:
+           flags = VM_WIMG_WCOMB;
+           break;
+
+       case kIOMapCopybackCache:
+           flags = VM_WIMG_COPYBACK;
+           break;
+    }
+
+    // Set up a block mapped area
+    pmap_map_block(pmap, va, (ppnum_t)atop_64(pa), (uint32_t) atop_64(round_page_64(length)), prot, flags, 0);
 
     return( KERN_SUCCESS );
 }
 
-kern_return_t IOUnmapPages(vm_map_t map, vm_offset_t va, vm_size_t length)
+kern_return_t IOUnmapPages(vm_map_t map, mach_vm_address_t va, mach_vm_size_t length)
 {
     pmap_t     pmap = map->pmap;
 
-    pmap_remove(pmap, trunc_page(va), round_page(va + length));
+    pmap_remove(pmap, trunc_page_64(va), round_page_64(va + length));
 
     return( KERN_SUCCESS );
 }
 
+kern_return_t IOProtectCacheMode(vm_map_t __unused map, mach_vm_address_t __unused va,
+                                       mach_vm_size_t __unused length, unsigned int __unused options)
+{
+#if __ppc__
+    // can't remap block mappings, but ppc doesn't speculatively read from WC
+#else
+
+    mach_vm_size_t off;
+    vm_prot_t     prot;
+    unsigned int   flags;
+    pmap_t        pmap = map->pmap;
+
+    prot = (options & kIOMapReadOnly)
+               ? VM_PROT_READ : (VM_PROT_READ|VM_PROT_WRITE);
+
+    switch (options & kIOMapCacheMask)
+    {
+       // what cache mode do we need?
+       case kIOMapDefaultCache:
+       default:
+           return (KERN_INVALID_ARGUMENT);
+
+       case kIOMapInhibitCache:
+           flags = VM_WIMG_IO;
+           break;
+
+       case kIOMapWriteThruCache:
+           flags = VM_WIMG_WTHRU;
+           break;
+
+       case kIOMapWriteCombineCache:
+           flags = VM_WIMG_WCOMB;
+           break;
+
+       case kIOMapCopybackCache:
+           flags = VM_WIMG_COPYBACK;
+           break;
+    }
+
+    //  enter each page's physical address in the target map
+    for (off = 0; off < length; off += page_size)
+    {
+       ppnum_t ppnum = pmap_find_phys(pmap, va + off);
+       if (ppnum)
+           pmap_enter(pmap, va + off, ppnum, prot, flags, TRUE);
+    }
+
+#endif
+
+    return (KERN_SUCCESS);
+}
+
+ppnum_t IOGetLastPageNumber(void)
+{
+    ppnum_t     lastPage, highest = 0;
+    unsigned int idx;
+
+#if __ppc__
+    for (idx = 0; idx < pmap_mem_regions_count; idx++)
+    {
+       lastPage = pmap_mem_regions[idx].mrEnd;
+#elif __i386__ || __x86_64__
+    for (idx = 0; idx < pmap_memory_region_count; idx++)
+    {
+       lastPage = pmap_memory_regions[idx].end - 1;
+#else
+#error arch
+#endif
+       if (lastPage > highest)
+           highest = lastPage;
+    }
+    return (highest);
+}
+
+
 void IOGetTime( mach_timespec_t * clock_time);
 void IOGetTime( mach_timespec_t * clock_time)
 {
-       *clock_time = clock_get_system_value();
+       clock_sec_t sec;
+       clock_nsec_t nsec;
+       clock_get_system_nanotime(&sec, &nsec);
+       clock_time->tv_sec = (typeof(clock_time->tv_sec))sec;
+       clock_time->tv_nsec = nsec;
 }