]> git.saurik.com Git - apple/xnu.git/blobdiff - osfmk/kern/kalloc.c
xnu-1228.9.59.tar.gz
[apple/xnu.git] / osfmk / kern / kalloc.c
index 3be39868fd30eb0799cff14e4736c9afa8860384..3d9d42ca893f6de8fdd3f502f0f8d2ef9ba73c90 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Copyright (c) 2000-2004 Apple Computer, Inc. All rights reserved.
+ * Copyright (c) 2000-2006 Apple Computer, Inc. All rights reserved.
  *
  * @APPLE_OSREFERENCE_LICENSE_HEADER_START@
  * 
 zone_t kalloc_zone(vm_size_t);
 #endif
 
+#define KALLOC_MAP_SIZE_MIN  (16 * 1024 * 1024)
+#define KALLOC_MAP_SIZE_MAX  (128 * 1024 * 1024)
 vm_map_t kalloc_map;
-vm_size_t kalloc_map_size = 16 * 1024 * 1024;
 vm_size_t kalloc_max;
 vm_size_t kalloc_max_prerounded;
+vm_size_t kalloc_kernmap_size; /* size of kallocs that can come from kernel map */
 
 unsigned int kalloc_large_inuse;
 vm_size_t    kalloc_large_total;
 vm_size_t    kalloc_large_max;
+vm_size_t    kalloc_largest_allocated = 0;
 
 /*
  *     All allocations of size less than kalloc_max are rounded to the
@@ -104,6 +107,8 @@ vm_size_t    kalloc_large_max;
  *     It represents the first power of two for which no zone exists.
  *     kalloc_max_prerounded is the smallest allocation size, before
  *     rounding, for which no zone exists.
+ *  Also if the allocation size is more than kalloc_kernmap_size 
+ *  then allocate from kernel map rather than kalloc_map.
  */
 
 int first_k_zone = -1;
@@ -175,9 +180,19 @@ kalloc_init(
 {
        kern_return_t retval;
        vm_offset_t min;
-       vm_size_t size;
+       vm_size_t size, kalloc_map_size;
        register int i;
 
+       /* 
+        * Scale the kalloc_map_size to physical memory size: stay below 
+        * 1/8th the total zone map size, or 128 MB.
+        */
+       kalloc_map_size = sane_size >> 5;
+       if (kalloc_map_size > KALLOC_MAP_SIZE_MAX)
+               kalloc_map_size = KALLOC_MAP_SIZE_MAX;
+       if (kalloc_map_size < KALLOC_MAP_SIZE_MIN)
+               kalloc_map_size = KALLOC_MAP_SIZE_MIN;
+
        retval = kmem_suballoc(kernel_map, &min, kalloc_map_size,
                               FALSE, VM_FLAGS_ANYWHERE, &kalloc_map);
 
@@ -195,6 +210,8 @@ kalloc_init(
        else
                kalloc_max = PAGE_SIZE;
        kalloc_max_prerounded = kalloc_max / 2 + 1;
+       /* size it to be more than 16 times kalloc_max (256k) for allocations from kernel map */
+       kalloc_kernmap_size = (kalloc_max * 16) + 1;
 
        /*
         *      Allocate a zone for each size we are going to handle.
@@ -202,7 +219,7 @@ kalloc_init(
         */
        for (i = 0, size = 1; size < kalloc_max; i++, size <<= 1) {
                if (size < KALLOC_MINSIZE) {
-                       k_zone[i] = 0;
+                       k_zone[i] = NULL;
                        continue;
                }
                if (size == KALLOC_MINSIZE) {
@@ -221,6 +238,7 @@ kalloc_canblock(
 {
        register int zindex;
        register vm_size_t allocsize;
+       vm_map_t alloc_map = VM_MAP_NULL;
 
        /*
         * If size is too large for a zone, then use kmem_alloc.
@@ -233,10 +251,19 @@ kalloc_canblock(
 
                /* kmem_alloc could block so we return if noblock */
                if (!canblock) {
-                 return(0);
+                 return(NULL);
                }
-               if (kmem_alloc(kalloc_map, (vm_offset_t *)&addr, size) != KERN_SUCCESS)
-                       addr = 0;
+
+               if (size >= kalloc_kernmap_size) {
+                       alloc_map = kernel_map;
+
+                       if (size > kalloc_largest_allocated)
+                               kalloc_largest_allocated = size;
+               } else
+                       alloc_map = kalloc_map;
+
+               if (kmem_alloc(alloc_map, (vm_offset_t *)&addr, size) != KERN_SUCCESS) 
+                       addr = NULL;
 
                if (addr) {
                        kalloc_large_inuse++;
@@ -287,6 +314,7 @@ krealloc(
        register int zindex;
        register vm_size_t allocsize;
        void *naddr;
+       vm_map_t alloc_map = VM_MAP_NULL;
 
        /* can only be used for increasing allocation size */
 
@@ -305,22 +333,25 @@ krealloc(
        /* if old block was kmem_alloc'd, then use kmem_realloc if necessary */
 
        if (old_size >= kalloc_max_prerounded) {
+               if (old_size >=  kalloc_kernmap_size) 
+                       alloc_map = kernel_map;
+               else
+                       alloc_map = kalloc_map;
+
                old_size = round_page(old_size);
                new_size = round_page(new_size);
                if (new_size > old_size) {
 
-                       if (KERN_SUCCESS != kmem_realloc(kalloc_map, 
+                       if (KERN_SUCCESS != kmem_realloc(alloc_map, 
                            (vm_offset_t)*addrp, old_size,
-                           (vm_offset_t *)&naddr, new_size)) {
+                           (vm_offset_t *)&naddr, new_size))
                                panic("krealloc: kmem_realloc");
-                               naddr = 0;
-                       }
 
                        simple_lock(lock);
                        *addrp = (void *) naddr;
 
                        /* kmem_realloc() doesn't free old page range. */
-                       kmem_free(kalloc_map, (vm_offset_t)*addrp, old_size);
+                       kmem_free(alloc_map, (vm_offset_t)*addrp, old_size);
 
                        kalloc_large_total += (new_size - old_size);
 
@@ -350,7 +381,11 @@ krealloc(
 
        simple_unlock(lock);
        if (new_size >= kalloc_max_prerounded) {
-               if (KERN_SUCCESS != kmem_alloc(kalloc_map, 
+               if (new_size >=  kalloc_kernmap_size) 
+                       alloc_map = kernel_map;
+               else
+                       alloc_map = kalloc_map;
+               if (KERN_SUCCESS != kmem_alloc(alloc_map, 
                    (vm_offset_t *)&naddr, new_size)) {
                        panic("krealloc: kmem_alloc");
                        simple_lock(lock);
@@ -425,11 +460,38 @@ kfree(
 {
        register int zindex;
        register vm_size_t freesize;
+       vm_map_t alloc_map = VM_MAP_NULL;
 
        /* if size was too large for a zone, then use kmem_free */
 
        if (size >= kalloc_max_prerounded) {
-               kmem_free(kalloc_map, (vm_offset_t)data, size);
+               if (size >=  kalloc_kernmap_size) {
+                       alloc_map = kernel_map;
+
+                       if (size > kalloc_largest_allocated)
+                               /*
+                                * work around double FREEs of small MALLOCs
+                                * this use to end up being a nop
+                                * since the pointer being freed from an
+                                * alloc backed by the zalloc world could
+                                * never show up in the kalloc_map... however,
+                                * the kernel_map is a different issue... since it
+                                * was released back into the zalloc pool, a pointer
+                                * would have gotten written over the 'size' that 
+                                * the MALLOC was retaining in the first 4 bytes of
+                                * the underlying allocation... that pointer ends up 
+                                * looking like a really big size on the 2nd FREE and
+                                * pushes the kfree into the kernel_map...  we
+                                * end up removing a ton of virutal space before we panic
+                                * this check causes us to ignore the kfree for a size
+                                * that must be 'bogus'... note that it might not be due
+                                * to the above scenario, but it would still be wrong and
+                                * cause serious damage.
+                                */
+                               return;
+               } else
+                       alloc_map = kalloc_map;
+               kmem_free(alloc_map, (vm_offset_t)data, size);
 
                kalloc_large_total -= size;
                kalloc_large_inuse--;
@@ -531,7 +593,7 @@ OSMalloc_Tagref(
        if (!((tag->OSMT_state & OSMT_VALID_MASK) == OSMT_VALID)) 
                panic("OSMalloc_Tagref(): bad state 0x%08X\n",tag->OSMT_state);
 
-       (void)hw_atomic_add((uint32_t *)(&tag->OSMT_refcnt), 1);
+       (void)hw_atomic_add(&tag->OSMT_refcnt, 1);
 }
 
 void
@@ -541,7 +603,7 @@ OSMalloc_Tagrele(
        if (!((tag->OSMT_state & OSMT_VALID_MASK) == OSMT_VALID))
                panic("OSMalloc_Tagref(): bad state 0x%08X\n",tag->OSMT_state);
 
-       if (hw_atomic_sub((uint32_t *)(&tag->OSMT_refcnt), 1) == 0) {
+       if (hw_atomic_sub(&tag->OSMT_refcnt, 1) == 0) {
                if (hw_compare_and_store(OSMT_VALID|OSMT_RELEASED, OSMT_VALID|OSMT_RELEASED, &tag->OSMT_state)) {
                        simple_lock(&OSMalloc_tag_lock);
                        (void)remque((queue_entry_t)tag);
@@ -559,7 +621,7 @@ OSMalloc_Tagfree(
        if (!hw_compare_and_store(OSMT_VALID, OSMT_VALID|OSMT_RELEASED, &tag->OSMT_state))
                panic("OSMalloc_Tagfree(): bad state 0x%08X\n", tag->OSMT_state);
 
-       if (hw_atomic_sub((uint32_t *)(&tag->OSMT_refcnt), 1) == 0) {
+       if (hw_atomic_sub(&tag->OSMT_refcnt, 1) == 0) {
                simple_lock(&OSMalloc_tag_lock);
                (void)remque((queue_entry_t)tag);
                simple_unlock(&OSMalloc_tag_lock);
@@ -580,10 +642,13 @@ OSMalloc(
            && (size & ~PAGE_MASK)) {
 
                if ((kr = kmem_alloc_pageable(kernel_map, (vm_offset_t *)&addr, size)) != KERN_SUCCESS)
-                       panic("OSMalloc(): kmem_alloc_pageable() failed 0x%08X\n", kr);
+                       addr = NULL;
        } else 
                addr = kalloc((vm_size_t)size);
 
+       if (!addr)
+               OSMalloc_Tagrele(tag);
+
        return(addr);
 }