]> git.saurik.com Git - redis.git/blobdiff - TODO
Two new tests for BGREWRTIEAOF.
[redis.git] / TODO
diff --git a/TODO b/TODO
index 9e6b0561b3b4c3bcb67f9c6eb54cd84f68a35015..145ec5243e93a72686067cb180441b583d06f27f 100644 (file)
--- a/TODO
+++ b/TODO
@@ -2,27 +2,29 @@ Redis TODO
 ----------
 
 WARNING: are you a possible Redis contributor?
 ----------
 
 WARNING: are you a possible Redis contributor?
-         Before implementing what is listed what is listed in this file
+         Before implementing what is listed in this file
          please drop a message in the Redis google group or chat with
          antirez or pietern on irc.freenode.org #redis to check if the work
          is already in progress and if the feature is still interesting for
          us, and *how* exactly this can be implemented to have good changes
          of a merge. Otherwise it is probably wasted work! Thank you
 
          please drop a message in the Redis google group or chat with
          antirez or pietern on irc.freenode.org #redis to check if the work
          is already in progress and if the feature is still interesting for
          us, and *how* exactly this can be implemented to have good changes
          of a merge. Otherwise it is probably wasted work! Thank you
 
-VM TODO
+
+CLUSTER
 =======
 
 =======
 
-* Use multiple open FDs against the VM file, one for thread.
-* Check what happens performance-wise if instead of creating threads again and again the same threads are reused forever. Note: this requires a way to disable this clients in the child, but waiting for empty new jobs queue can be enough.
-* mmap the swap file.
-* Use just a single IO Job to swap out a key, and add a mutex so that pages in the page table can be marked as used and scanned from the thread itself.
+* Implement rehashing and cluster check in redis-trib.
+* Reimplement MIGRATE / RESTORE to use just in memory buffers (no disk at
+  all). This will require touching a lot of the RDB stuff around, but we may
+  hand with faster persistence for RDB.
+* Implement the slave nodes semantics and election.
+* Allow redis-trib to create a cluster-wide snapshot (using SYNC).
+* Allow redis-trib to restore a cluster-wide snapshot (implement UPLOAD?).
 
 
-REPLICATION
-===========
+SCRIPTING
+=========
 
 
-* PING between master and slave from time to time, so we can subject the
-master-slave link to timeout, and detect when the connection is gone even
-if the socket is still up.
+* SCRIPT FLUSH or alike to start a fresh interpreter?
 
 OPTIMIZATIONS
 =============
 
 OPTIMIZATIONS
 =============
@@ -30,15 +32,14 @@ OPTIMIZATIONS
 * SORT: Don't copy the list into a vector when BY argument is constant.
 * Write the hash table size of every db in the dump, so that Redis can resize the hash table just one time when loading a big DB.
 * Read-only mode for slaves.
 * SORT: Don't copy the list into a vector when BY argument is constant.
 * Write the hash table size of every db in the dump, so that Redis can resize the hash table just one time when loading a big DB.
 * Read-only mode for slaves.
+* Redis big lists as linked lists of small ziplists?
+  Possibly a simple heuristic that join near nodes when some node gets smaller than the low_level, and split it into two if gets bigger than high_level.
 
 KNOWN BUGS
 ==========
 
 
 KNOWN BUGS
 ==========
 
-* What happens in the following scenario:
-    1) We are reading an AOF file.
-    2) SETEX FOO 5 BAR
-    3) APPEND FOO ZAP
-    What happens if between 1 and 2 for some reason (system under huge load
-    or alike) too many time passes? We should prevent expires while the
-    AOF is loading.
-
+* #519: Slave may have expired keys that were never read in the master (so a DEL
+  is not sent in the replication channel) but are already expired since
+  a lot of time. Maybe after a given delay that is undoubtably greater than
+  the replication link latency we should expire this key on the slave on
+  access?