]> git.saurik.com Git - redis.git/blobdiff - TODO
CPP client added thanks to Brian Hammond
[redis.git] / TODO
diff --git a/TODO b/TODO
index f3a911cbc0fd51169cf1566f811fcfcde2182a4e..81d8c77a0999b6f99ad3d5e53e2e2f1c11064c85 100644 (file)
--- a/TODO
+++ b/TODO
@@ -1,30 +1,31 @@
 BEFORE REDIS 1.0.0-rc1
 
-- What happens if the saving child gets killed instead to end normally? Handle this.
-- Fix INCRBY argument that is limited to 32bit int.
-- Make sinterstore / unionstore / sdiffstore returning the cardinality of the resulting set.
-- Add a new field as INFO output: bgsaveinprogress
+- Contrib dir with RHL for Centos and other contributions like init scripts
+- Update the FAQ with max number of keys in a DB and the overcommit thing
+- Add number of keys for every DB in INFO
+- maxmemory support in config file.
+- Resize the expires hash tables if needed as well
+- TTL command that returns -1 if a key is not volatile otherwise the time to live of a volatile key.
 - Remove max number of args limit
-- GETSET
-- network layer stresser in test in demo, make sure to set/get random streams of data and check that what we read back is byte-by-byte the same.
+- What happens if the saving child gets killed or segfaults instead of ending normally? Handle this.
+- Make sinterstore / unionstore / sdiffstore returning the cardinality of the resulting set.
 - maxclients directive
 - check 'server.dirty' everywere
-- config parameter to change the name of the DB file
-- replication automated tests
-- an external tool able to perform the 'difference' between two Redis servers. It's like 'diff', but against Redis servers, and the output is the set of commands needed to turn the first server into the second, suitable to be sent via netcat.
-   $ ./redis-diff 192.168.1.1 192.168.1.2 > diff.txt
-   $ cat diff.txt | nc 192.168.1.1 6379
-   $ ./redis-diff 192.168.1.1 192.168.1.2
-   $ # No output now the servers are identical
-
-This command should be smart and don't use too much memory, that is, take two connections at the same time against the two servers and perform the comparison key by key. Probably the initial "KEYS *" is unavoidable.
-
-- Shutdown must kill other background savings before to start saving. Otherwise the DB can get replaced by the child that rename(2) after the parent for some reason.
-- Add missing commands in documentation
+- Shutdown must kill other background savings before to start saving. Otherwise the DB can get replaced by the child that rename(2) after the parent for some reason. Child should trap the signal and remove the temp file name.
 - Document replication
 - Objects sharing configuration, add the directive "objectsharingpool <size>"
 - Make sure to convert all the fstat() calls to 64bit versions.
+- SINTERCOUNT, SUNIONCOUNT, SDIFFCOUNT
+
+AFTER 1.0 stable release
+
+- Use partial qsort for SORT + LIMIT. Don't copy the list into a vector when BY argument is constant.
+- Locking primitives
+- MDEL (or vararg DEL)
+- Write the hash table size of every db in the dump, so that Redis can resize the hash table just one time when loading a big DB.
+- Elapsed time in logs for SAVE when saving is going to take more than 2 seconds
+- replication automated tests
 
 FUTURE HINTS
 
-- if in-memory values compression will be implemented, make sure to implement this so that addReply() is able to handle compressed objects, just creating an uncompressed version on the fly and adding this to the output queue instead of the original one. When insetad we need to look at the object string value (SORT BY for example), call a function that will turn the object into an uncompresed one.
+- In memory compression: if in-memory values compression will be implemented, make sure to implement this so that addReply() is able to handle compressed objects, just creating an uncompressed version on the fly and adding this to the output queue instead of the original one. When insetad we need to look at the object string value (SORT BY for example), call a function that will turn the object into an uncompresed one.