]> git.saurik.com Git - redis.git/blobdiff - TODO
new tests for EXPIRE family functions, new millisecond precision, and new millisecond...
[redis.git] / TODO
diff --git a/TODO b/TODO
index f24cec23b8d3786a560e41564456948c0af5bb03..145ec5243e93a72686067cb180441b583d06f27f 100644 (file)
--- a/TODO
+++ b/TODO
@@ -2,7 +2,7 @@ Redis TODO
 ----------
 
 WARNING: are you a possible Redis contributor?
 ----------
 
 WARNING: are you a possible Redis contributor?
-         Before implementing what is listed what is listed in this file
+         Before implementing what is listed in this file
          please drop a message in the Redis google group or chat with
          antirez or pietern on irc.freenode.org #redis to check if the work
          is already in progress and if the feature is still interesting for
          please drop a message in the Redis google group or chat with
          antirez or pietern on irc.freenode.org #redis to check if the work
          is already in progress and if the feature is still interesting for
@@ -10,21 +10,6 @@ WARNING: are you a possible Redis contributor?
          of a merge. Otherwise it is probably wasted work! Thank you
 
 
          of a merge. Otherwise it is probably wasted work! Thank you
 
 
-API CHANGES
-===========
-
-* Turn commands into variadic versions when it makes sense, that is, when
-  the variable number of arguments represent values, and there is no conflict
-  with the return value of the command.
-
-2.6
-===
-
-* Everything under the "SCRIPTING" section.
-* Float increments (INCRBYFLOAT).
-* Fix BRPOPLPUSH + vararg LPUSH semantics.
-* AOF everysec fsync in background (either the aof-bg branch or something else).
-
 CLUSTER
 =======
 
 CLUSTER
 =======
 
@@ -39,40 +24,22 @@ CLUSTER
 SCRIPTING
 =========
 
 SCRIPTING
 =========
 
-* MULTI/EXEC/...: should we do more than simply ignoring it?
-* Prevent Lua from calling itself with redis("eval",...)
 * SCRIPT FLUSH or alike to start a fresh interpreter?
 * SCRIPT FLUSH or alike to start a fresh interpreter?
-* Check better the replication handling.
-* Prevent execution of writes if random commands are used.
-
-APPEND ONLY FILE
-================
-
-* in AOF rewirte use HMSET to rewrite small hashes instead of multiple calls
-  to HSET.
 
 OPTIMIZATIONS
 =============
 
 
 OPTIMIZATIONS
 =============
 
-* Avoid COW due to incrementing the dict iterators counter.
 * SORT: Don't copy the list into a vector when BY argument is constant.
 * Write the hash table size of every db in the dump, so that Redis can resize the hash table just one time when loading a big DB.
 * Read-only mode for slaves.
 * Redis big lists as linked lists of small ziplists?
   Possibly a simple heuristic that join near nodes when some node gets smaller than the low_level, and split it into two if gets bigger than high_level.
 
 * SORT: Don't copy the list into a vector when BY argument is constant.
 * Write the hash table size of every db in the dump, so that Redis can resize the hash table just one time when loading a big DB.
 * Read-only mode for slaves.
 * Redis big lists as linked lists of small ziplists?
   Possibly a simple heuristic that join near nodes when some node gets smaller than the low_level, and split it into two if gets bigger than high_level.
 
-RANDOM
-======
-
-* Server should abort when getcwd() fails if there is some kind of persistence configured. Check this in the cron loop.
-* Clients should be closed as far as the output buffer list is bigger than a given number of elements (configurable in redis.conf)
-* Should the redis default configuration, and the default redis.conf, just bind 127.0.0.1?
-
 KNOWN BUGS
 ==========
 
 * #519: Slave may have expired keys that were never read in the master (so a DEL
   is not sent in the replication channel) but are already expired since
 KNOWN BUGS
 ==========
 
 * #519: Slave may have expired keys that were never read in the master (so a DEL
   is not sent in the replication channel) but are already expired since
-  a lot of time. Maybe after a given delay that is undoubltly greater than
+  a lot of time. Maybe after a given delay that is undoubtably greater than
   the replication link latency we should expire this key on the slave on
   access?
   the replication link latency we should expire this key on the slave on
   access?