]> git.saurik.com Git - redis.git/blobdiff - TODO
TODO updated with 2.6 things
[redis.git] / TODO
diff --git a/TODO b/TODO
index 8f0a5db204cffb57630b16ff9b8824401ac2bb2e..f24cec23b8d3786a560e41564456948c0af5bb03 100644 (file)
--- a/TODO
+++ b/TODO
@@ -17,6 +17,34 @@ API CHANGES
   the variable number of arguments represent values, and there is no conflict
   with the return value of the command.
 
+2.6
+===
+
+* Everything under the "SCRIPTING" section.
+* Float increments (INCRBYFLOAT).
+* Fix BRPOPLPUSH + vararg LPUSH semantics.
+* AOF everysec fsync in background (either the aof-bg branch or something else).
+
+CLUSTER
+=======
+
+* Implement rehashing and cluster check in redis-trib.
+* Reimplement MIGRATE / RESTORE to use just in memory buffers (no disk at
+  all). This will require touching a lot of the RDB stuff around, but we may
+  hand with faster persistence for RDB.
+* Implement the slave nodes semantics and election.
+* Allow redis-trib to create a cluster-wide snapshot (using SYNC).
+* Allow redis-trib to restore a cluster-wide snapshot (implement UPLOAD?).
+
+SCRIPTING
+=========
+
+* MULTI/EXEC/...: should we do more than simply ignoring it?
+* Prevent Lua from calling itself with redis("eval",...)
+* SCRIPT FLUSH or alike to start a fresh interpreter?
+* Check better the replication handling.
+* Prevent execution of writes if random commands are used.
+
 APPEND ONLY FILE
 ================
 
@@ -33,42 +61,18 @@ OPTIMIZATIONS
 * Redis big lists as linked lists of small ziplists?
   Possibly a simple heuristic that join near nodes when some node gets smaller than the low_level, and split it into two if gets bigger than high_level.
 
-REPORTING
-=========
-
-* Better INFO output with sections.
-
 RANDOM
 ======
 
+* Server should abort when getcwd() fails if there is some kind of persistence configured. Check this in the cron loop.
 * Clients should be closed as far as the output buffer list is bigger than a given number of elements (configurable in redis.conf)
 * Should the redis default configuration, and the default redis.conf, just bind 127.0.0.1?
 
 KNOWN BUGS
 ==========
 
-* What happens in the following scenario:
-    1) We are reading an AOF file.
-    2) SETEX FOO 5 BAR
-    3) APPEND FOO ZAP
-    What happens if between 1 and 2 for some reason (system under huge load
-    or alike) too many time passes? We should prevent expires while the
-    AOF is loading.
 * #519: Slave may have expired keys that were never read in the master (so a DEL
   is not sent in the replication channel) but are already expired since
   a lot of time. Maybe after a given delay that is undoubltly greater than
   the replication link latency we should expire this key on the slave on
   access?
-
-DISKSTORE TODO
-==============
-
-* Fix FLUSHALL/FLUSHDB: the queue of pending reads/writes should be handled.
-* Check that 00/00 and ff/ff exist at startup, otherwise exit with error.
-* Implement sync flush option, where data is written synchronously on disk when a command is executed.
-* Implement MULTI/EXEC as transaction abstract API to diskstore.c, with transaction_start, transaction_end, and a journal to recover.
-* Stop BGSAVE thread on shutdown and any other condition where the child is killed during normal bgsave.
-* Fix RANDOMKEY to really do something interesting
-* Fix DBSIZE to really do something interesting
-* Add a DEBUG command to check if an entry is or not in memory currently
-* dscache.c near 236, kobj = createStringObject... we could use static obj.