]> git.saurik.com Git - redis.git/blobdiff - src/dscache.c
strictly honour memory limit
[redis.git] / src / dscache.c
index 92f529418359fe767eb9639872c30d4b155c24d6..901c70f07e4f44502f00b6426844c7b9afbcd1e9 100644 (file)
  */
 
 void spawnIOThread(void);
+int cacheScheduleIOPushJobs(int onlyloads);
 
 /* =================== Virtual Memory - Blocking Side  ====================== */
 
@@ -210,10 +211,17 @@ int cacheFreeOneEntry(void) {
         }
     }
     if (best == NULL) {
-        /* FIXME: If there are objects that are in the write queue
-         * so we can't delete them we should block here, at the cost of
-         * slowness as the object cache memory limit is considered 
-         * n hard limit. */
+        /* Was not able to fix a single object... we should check if our
+         * IO queues have stuff in queue, and try to consume the queue
+         * otherwise we'll use an infinite amount of memory if changes to
+         * the dataset are faster than I/O */
+        if (listLength(server.cache_io_queue) > 0) {
+            cacheScheduleIOPushJobs(0);
+            waitEmptyIOJobsQueue();
+            processAllPendingIOJobs();
+            return REDIS_OK;
+        }
+        /* Nothing to free at all... */
         return REDIS_ERR;
     }
     key = dictGetEntryKey(best);
@@ -597,8 +605,6 @@ void dsCreateIOJob(int type, redisDb *db, robj *key, robj *val) {
 #define REDIS_IO_LOADINPROG 4
 #define REDIS_IO_SAVEINPROG 8
 
-void cacheScheduleIOPushJobs(int onlyloads);
-
 void cacheScheduleIOAddFlag(redisDb *db, robj *key, long flag) {
     struct dictEntry *de = dictFind(db->io_queued,key);
 
@@ -675,10 +681,10 @@ void cacheScheduleIO(redisDb *db, robj *key, int type) {
  * (not protected by lookupKey() that will block on keys in IO_SAVEINPROG
  * state. */
 #define MAX_IO_JOBS_QUEUE 100
-void cacheScheduleIOPushJobs(int onlyloads) {
+int cacheScheduleIOPushJobs(int onlyloads) {
     time_t now = time(NULL);
     listNode *ln;
-    int jobs, topush = 0;
+    int jobs, topush = 0, pushed = 0;
 
     /* Sync stuff on disk, but only if we have less
      * than MAX_IO_JOBS_QUEUE IO jobs. */
@@ -749,10 +755,12 @@ void cacheScheduleIOPushJobs(int onlyloads) {
             listDelNode(server.cache_io_queue,ln);
             decrRefCount(op->key);
             zfree(op);
+            pushed++;
         } else {
             break; /* too early */
         }
     }
+    return pushed;
 }
 
 void cacheCron(void) {