]> git.saurik.com Git - redis.git/blobdiff - TODO
TODO modified
[redis.git] / TODO
diff --git a/TODO b/TODO
index 9e6b0561b3b4c3bcb67f9c6eb54cd84f68a35015..3032392e245dbcf010a977605ad82fae5340ed34 100644 (file)
--- a/TODO
+++ b/TODO
@@ -9,27 +9,46 @@ WARNING: are you a possible Redis contributor?
          us, and *how* exactly this can be implemented to have good changes
          of a merge. Otherwise it is probably wasted work! Thank you
 
-VM TODO
-=======
+DISKSTORE TODO
+==============
 
-* Use multiple open FDs against the VM file, one for thread.
-* Check what happens performance-wise if instead of creating threads again and again the same threads are reused forever. Note: this requires a way to disable this clients in the child, but waiting for empty new jobs queue can be enough.
-* mmap the swap file.
-* Use just a single IO Job to swap out a key, and add a mutex so that pages in the page table can be marked as used and scanned from the thread itself.
+* Fix FLUSHALL/FLUSHDB: the queue of pending reads/writes should be handled.
+* Check that 00/00 and ff/ff exist at startup, otherwise exit with error.
+* Implement sync flush option, where data is written synchronously on disk when a command is executed.
+* Implement MULTI/EXEC as transaction abstract API to diskstore.c, with transaction_start, transaction_end, and a journal to recover.
+* Stop BGSAVE thread on shutdown and any other condition where the child is killed during normal bgsave.
+* Fix RANDOMKEY to really do something interesting
+* Fix DBSIZE to really do something interesting
+* Add a DEBUG command to check if an entry is or not in memory currently
 
-REPLICATION
-===========
+* dscache.c near 236, kobj = createStringObject... we could use static obj.
 
-* PING between master and slave from time to time, so we can subject the
-master-slave link to timeout, and detect when the connection is gone even
-if the socket is still up.
+APPEND ONLY FILE
+================
+
+* in AOF rewirte use HMSET to rewrite small hashes instead of multiple calls
+  to HSET.
 
 OPTIMIZATIONS
 =============
 
+* Avoid COW due to incrementing the dict iterators counter.
 * SORT: Don't copy the list into a vector when BY argument is constant.
 * Write the hash table size of every db in the dump, so that Redis can resize the hash table just one time when loading a big DB.
 * Read-only mode for slaves.
+* Redis big lists as linked lists of small ziplists?
+  Possibly a simple heuristic that join near nodes when some node gets smaller than the low_level, and split it into two if gets bigger than high_level.
+
+REPORTING
+=========
+
+* Better INFO output with sections.
+
+RANDOM
+======
+
+* Clients should be closed as far as the output buffer list is bigger than a given number of elements (configurable in redis.conf)
+* Should the redis default configuration, and the default redis.conf, just bind 127.0.0.1?
 
 KNOWN BUGS
 ==========