]> git.saurik.com Git - apple/xnu.git/blobdiff - osfmk/ppc/io_map.c
xnu-1504.15.3.tar.gz
[apple/xnu.git] / osfmk / ppc / io_map.c
index 472063daec0a6e8356b952ab0bcff668d3b18dab..e30d357ce5dc5e1f71dc1c41054e5c9fc1c632e8 100644 (file)
@@ -52,15 +52,14 @@ extern vm_offset_t  virtual_avail;
  * Note, this will onl
  */
 vm_offset_t
  * Note, this will onl
  */
 vm_offset_t
-io_map(phys_addr, size)
-       vm_offset_t     phys_addr;
-       vm_size_t       size;
+io_map(vm_map_offset_t phys_addr, vm_size_t size, unsigned int flags)
 {
        vm_offset_t     start;
 {
        vm_offset_t     start;
-       int             i;
-       unsigned int j;
+       vm_size_t       i;
+       unsigned int    mflags;
        vm_page_t       m;
 
        vm_page_t       m;
 
+       mflags = mmFlgBlock | mmFlgUseAttr | (flags & VM_MEM_GUARDED) | ((flags & VM_MEM_NOT_CACHEABLE) >> 1);  /* Convert to our mapping_make flags */
 
 #if DEBUG
        assert (kernel_map != VM_MAP_NULL);                     /* VM must be initialised */
 
 #if DEBUG
        assert (kernel_map != VM_MAP_NULL);                     /* VM must be initialised */
@@ -73,10 +72,10 @@ io_map(phys_addr, size)
                (void) kmem_alloc_pageable(kernel_map, &start, size);   /* Get some virtual addresses to use */
                
                (void)mapping_make(kernel_pmap, (addr64_t)start, (ppnum_t)(phys_addr >> 12), 
                (void) kmem_alloc_pageable(kernel_map, &start, size);   /* Get some virtual addresses to use */
                
                (void)mapping_make(kernel_pmap, (addr64_t)start, (ppnum_t)(phys_addr >> 12), 
-                       (mmFlgBlock | mmFlgUseAttr | mmFlgCInhib | mmFlgGuarded),       /* Map as I/O page */
+                       mflags,                                 /* Map with requested cache mode */
                        (size >> 12), VM_PROT_READ|VM_PROT_WRITE);
 
                        (size >> 12), VM_PROT_READ|VM_PROT_WRITE);
 
-               return (start + (phys_addr & PAGE_MASK));       /* Pass back the physical address */
+               return (start + (phys_addr & PAGE_MASK));       /* Pass back the virtual address */
        
        } else {
        
        
        } else {
        
@@ -93,7 +92,7 @@ io_map(phys_addr, size)
                        
                        (void)mapping_make(kernel_pmap, 
                                (addr64_t)(start + i), m->phys_page, 
                        
                        (void)mapping_make(kernel_pmap, 
                                (addr64_t)(start + i), m->phys_page, 
-                               (mmFlgBlock | mmFlgUseAttr | mmFlgCInhib | mmFlgGuarded),       /* Map as I/O page */
+                               mflags,                                 /* Map with requested cache mode */
                                1, VM_PROT_READ|VM_PROT_WRITE); 
                        
                }
                                1, VM_PROT_READ|VM_PROT_WRITE); 
                        
                }
@@ -108,21 +107,24 @@ io_map(phys_addr, size)
  * Allocate and map memory for devices before the VM system comes alive.
  */
 
  * Allocate and map memory for devices before the VM system comes alive.
  */
 
-vm_offset_t io_map_spec(vm_offset_t phys_addr, vm_size_t size)
+vm_offset_t io_map_spec(vm_map_offset_t phys_addr, vm_size_t size, unsigned int flags)
 {
        vm_offset_t     start;
 {
        vm_offset_t     start;
+       unsigned int    mflags;
 
        if(kernel_map != VM_MAP_NULL) {                         /* If VM system is up, redirect to normal routine */
                
 
        if(kernel_map != VM_MAP_NULL) {                         /* If VM system is up, redirect to normal routine */
                
-               return io_map(phys_addr, size);                 /* Map the address */
+               return io_map(phys_addr, size, flags);                  /* Map the address */
        
        }
        
        }
+
+       mflags = mmFlgBlock | mmFlgUseAttr | (flags & VM_MEM_GUARDED) | ((flags & VM_MEM_NOT_CACHEABLE) >> 1);  /* Convert to our mapping_make flags */
        
        size = round_page(size + (phys_addr - (phys_addr & -PAGE_SIZE)));       /* Extend the length to include it all */
        start = pmap_boot_map(size);                            /* Get me some virtual address */
 
        (void)mapping_make(kernel_pmap, (addr64_t)start, (ppnum_t)(phys_addr >> 12), 
        
        size = round_page(size + (phys_addr - (phys_addr & -PAGE_SIZE)));       /* Extend the length to include it all */
        start = pmap_boot_map(size);                            /* Get me some virtual address */
 
        (void)mapping_make(kernel_pmap, (addr64_t)start, (ppnum_t)(phys_addr >> 12), 
-               (mmFlgBlock | mmFlgUseAttr | mmFlgCInhib | mmFlgGuarded),       /* Map as I/O page */
+               mflags,                                 /* Map with requested cache mode */
                (size >> 12), VM_PROT_READ|VM_PROT_WRITE);
 
        return (start + (phys_addr & PAGE_MASK));
                (size >> 12), VM_PROT_READ|VM_PROT_WRITE);
 
        return (start + (phys_addr & PAGE_MASK));