]> git.saurik.com Git - apt.git/blobdiff - ftparchive/contents.cc
add finally my very small testcase for the conkeror problem resulting
[apt.git] / ftparchive / contents.cc
index 3801995bd3829a40929f34097ae389296c75bd33..b761d9204adb803df418cf5e4e3f17c82ac72a6d 100644 (file)
@@ -13,7 +13,7 @@
    removing the massive sort time overhead.
    
    By breaking all the pathnames into components and storing them 
-   separately a space savings is realized by not duplicating the string
+   separately a space saving is realized by not duplicating the string
    over and over again. Ultimately this saving is sacrificed to storage of
    the tree structure itself but the tree structure yields a speed gain
    in the sorting and processing. Ultimately it takes about 5 seconds to
@@ -314,7 +314,12 @@ bool ContentsExtract::Read(debDebFile &Deb)
       Compressor = "bzip2";
    }
    if (Member == 0) {
-      _error->Error(_("Internal error, could not locate member %s"),"data.tar.gz");
+      Member = Deb.GotoMember("data.tar.lzma");
+      Compressor = "lzma";
+   }
+   if (Member == 0) {
+      _error->Error(_("Internal error, could not locate member %s"),
+                   "data.tar.{gz,bz2,lzma}");
       return false;
    }
       
@@ -394,7 +399,7 @@ bool ContentsExtract::TakeContents(const void *NewData,unsigned long Length)
 // ContentsExtract::Add - Read the contents data into the sorter       /*{{{*/
 // ---------------------------------------------------------------------
 /* */
-void ContentsExtract::Add(GenContents &Contents,string Package)
+void ContentsExtract::Add(GenContents &Contents,string const &Package)
 {
    const char *Start = Data;
    char *Pkg = Contents.Mystrdup(Package.c_str());