]> git.saurik.com Git - redis.git/blobdiff - deps/jemalloc.orig/src/base.c
Deleted jemalloc.orig from /deps.
[redis.git] / deps / jemalloc.orig / src / base.c
diff --git a/deps/jemalloc.orig/src/base.c b/deps/jemalloc.orig/src/base.c
deleted file mode 100644 (file)
index cc85e84..0000000
+++ /dev/null
@@ -1,106 +0,0 @@
-#define        JEMALLOC_BASE_C_
-#include "jemalloc/internal/jemalloc_internal.h"
-
-/******************************************************************************/
-/* Data. */
-
-malloc_mutex_t base_mtx;
-
-/*
- * Current pages that are being used for internal memory allocations.  These
- * pages are carved up in cacheline-size quanta, so that there is no chance of
- * false cache line sharing.
- */
-static void            *base_pages;
-static void            *base_next_addr;
-static void            *base_past_addr; /* Addr immediately past base_pages. */
-static extent_node_t   *base_nodes;
-
-/******************************************************************************/
-/* Function prototypes for non-inline static functions. */
-
-static bool    base_pages_alloc(size_t minsize);
-
-/******************************************************************************/
-
-static bool
-base_pages_alloc(size_t minsize)
-{
-       size_t csize;
-       bool zero;
-
-       assert(minsize != 0);
-       csize = CHUNK_CEILING(minsize);
-       zero = false;
-       base_pages = chunk_alloc(csize, true, &zero);
-       if (base_pages == NULL)
-               return (true);
-       base_next_addr = base_pages;
-       base_past_addr = (void *)((uintptr_t)base_pages + csize);
-
-       return (false);
-}
-
-void *
-base_alloc(size_t size)
-{
-       void *ret;
-       size_t csize;
-
-       /* Round size up to nearest multiple of the cacheline size. */
-       csize = CACHELINE_CEILING(size);
-
-       malloc_mutex_lock(&base_mtx);
-       /* Make sure there's enough space for the allocation. */
-       if ((uintptr_t)base_next_addr + csize > (uintptr_t)base_past_addr) {
-               if (base_pages_alloc(csize)) {
-                       malloc_mutex_unlock(&base_mtx);
-                       return (NULL);
-               }
-       }
-       /* Allocate. */
-       ret = base_next_addr;
-       base_next_addr = (void *)((uintptr_t)base_next_addr + csize);
-       malloc_mutex_unlock(&base_mtx);
-
-       return (ret);
-}
-
-extent_node_t *
-base_node_alloc(void)
-{
-       extent_node_t *ret;
-
-       malloc_mutex_lock(&base_mtx);
-       if (base_nodes != NULL) {
-               ret = base_nodes;
-               base_nodes = *(extent_node_t **)ret;
-               malloc_mutex_unlock(&base_mtx);
-       } else {
-               malloc_mutex_unlock(&base_mtx);
-               ret = (extent_node_t *)base_alloc(sizeof(extent_node_t));
-       }
-
-       return (ret);
-}
-
-void
-base_node_dealloc(extent_node_t *node)
-{
-
-       malloc_mutex_lock(&base_mtx);
-       *(extent_node_t **)node = base_nodes;
-       base_nodes = node;
-       malloc_mutex_unlock(&base_mtx);
-}
-
-bool
-base_boot(void)
-{
-
-       base_nodes = NULL;
-       if (malloc_mutex_init(&base_mtx))
-               return (true);
-
-       return (false);
-}