]> git.saurik.com Git - redis.git/blobdiff - TODO
Fix Makefile colors.
[redis.git] / TODO
diff --git a/TODO b/TODO
index 98241884042d10ab7ffe40c2f9b756d1e9e072e2..dd6ba28bd6f149b7644849833df8b6a02f759fb7 100644 (file)
--- a/TODO
+++ b/TODO
@@ -1,52 +1,85 @@
-Redis TODO and Roadmap
+Redis TODO
+----------
 
-VERSION 1.1 TODO (Zsets, Integer encoding, Append only journal)
-===============================================================
+WARNING: are you a possible Redis contributor?
+         Before implementing what is listed what is listed in this file
+         please drop a message in the Redis google group or chat with
+         antirez or pietern on irc.freenode.org #redis to check if the work
+         is already in progress and if the feature is still interesting for
+         us, and *how* exactly this can be implemented to have good changes
+         of a merge. Otherwise it is probably wasted work! Thank you
 
-Most of the features already implemented for this release. The following is a list of the missing things in order to release the first beta tar.gz:
 
-* For now only the last argument gets integer encoded, so make sure that: 1) every multi bulk command implemented will have the last arg that is indeed a value, and not used otherwise. 2) to explicitly call the function to encode the object in MSET and other commands where there are multiple "values".
-* Man pages for SRANDMEMBER, missing Z-commands, ...
-* Use strcoll() to compare objects in sorted sets, like it already happens for SORT.
-* Write docs for the "STORE" operaiton of SORT. Link to the article about SORT by written by defunkt.
-* Append only mode: testing and a command to rebuild the log from scratch.
-* ZRANGEBYSCORE test, ZRANGEBYSCORE LIMIT option.
-* Sorted sets infinity tests.
+API CHANGES
+===========
 
-VERSION 1.2 TODO (Hash type)
-============================
+* Turn commands into variadic versions when it makes sense, that is, when
+  the variable number of arguments represent values, and there is no conflict
+  with the return value of the command.
 
-* Hashes (HSET, HGET, HEXISTS, HLEN, ...).
-* An utility able to export an .rdb file into a text-only JSON dump, we can't live anymore without such a tool. Probably an extension to redis-cli.
+CLUSTER
+=======
 
-VERSION 1.3 TODO (Virtual memory)
-=================================
+* Implement rehashing and cluster check in redis-trib.
+* Reimplement MIGRATE / RESTORE to use just in memory buffers (no disk at
+  all). This will require touching a lot of the RDB stuff around, but we may
+  hand with faster persistence for RDB.
+* Implement the slave nodes semantics and election.
+* Allow redis-trib to create a cluster-wide snapshot (using SYNC).
+* Allow redis-trib to restore a cluster-wide snapshot (implement UPLOAD?).
 
-* Redis Virtual Memory for datasets bigger than RAM (http://groups.google.com/group/redis-db/msg/752997c7b38553cd)
+APPEND ONLY FILE
+================
 
-VERSION 1.4 TODO (Fault tollerant sharding)
-===========================================
+* in AOF rewirte use HMSET to rewrite small hashes instead of multiple calls
+  to HSET.
 
-* Redis-cluster, a fast intermediate layer (proxy) that implements consistent hashing and fault tollerant nodes handling.
+OPTIMIZATIONS
+=============
 
-Interesting readings about this:
+* Avoid COW due to incrementing the dict iterators counter.
+* SORT: Don't copy the list into a vector when BY argument is constant.
+* Write the hash table size of every db in the dump, so that Redis can resize the hash table just one time when loading a big DB.
+* Read-only mode for slaves.
+* Redis big lists as linked lists of small ziplists?
+  Possibly a simple heuristic that join near nodes when some node gets smaller than the low_level, and split it into two if gets bigger than high_level.
 
-    - http://ayende.com/Blog/archive/2009/04/06/designing-rhino-dht-a-fault-tolerant-dynamically-distributed-hash.aspx
+REPORTING
+=========
 
-VERSION 1.5 TODO (Optimizations and latency)
-============================================
+* Better INFO output with sections.
 
-* Lower the CPU usage.
-* Lower the RAM usage everywhere possible.
-* Use epool and alike to rewrite ae.c for Linux and other platforms suppporting fater-than-select() mutiplexing APIs.
-* Implement an UDP interface for low-latency GET/SET operations.
+RANDOM
+======
 
-SHORT/LONG TERM RANDOM TODO ITEMS
-=================================
+* Clients should be closed as far as the output buffer list is bigger than a given number of elements (configurable in redis.conf)
+* Should the redis default configuration, and the default redis.conf, just bind 127.0.0.1?
 
- * SORT: Don't copy the list into a vector when BY argument is constant.
- * Write the hash table size of every db in the dump, so that Redis can resize the hash table just one time when loading a big DB.
- * LOCK / TRYLOCK / UNLOCK as described many times in the google group
- * Replication automated tests
- * BYTEDARRAY type
- * zmalloc() should avoid to add a private header for archs where there is some other kind of libc-specific way to get the size of a malloced block.
+KNOWN BUGS
+==========
+
+* What happens in the following scenario:
+    1) We are reading an AOF file.
+    2) SETEX FOO 5 BAR
+    3) APPEND FOO ZAP
+    What happens if between 1 and 2 for some reason (system under huge load
+    or alike) too many time passes? We should prevent expires while the
+    AOF is loading.
+* #519: Slave may have expired keys that were never read in the master (so a DEL
+  is not sent in the replication channel) but are already expired since
+  a lot of time. Maybe after a given delay that is undoubltly greater than
+  the replication link latency we should expire this key on the slave on
+  access?
+
+DISKSTORE TODO
+==============
+
+* Fix FLUSHALL/FLUSHDB: the queue of pending reads/writes should be handled.
+* Check that 00/00 and ff/ff exist at startup, otherwise exit with error.
+* Implement sync flush option, where data is written synchronously on disk when a command is executed.
+* Implement MULTI/EXEC as transaction abstract API to diskstore.c, with transaction_start, transaction_end, and a journal to recover.
+* Stop BGSAVE thread on shutdown and any other condition where the child is killed during normal bgsave.
+* Fix RANDOMKEY to really do something interesting
+* Fix DBSIZE to really do something interesting
+* Add a DEBUG command to check if an entry is or not in memory currently
+* dscache.c near 236, kobj = createStringObject... we could use static obj.