]> git.saurik.com Git - apt.git/blobdiff - ftparchive/contents.cc
add finally my very small testcase for the conkeror problem resulting
[apt.git] / ftparchive / contents.cc
index 145a68781bee38b4e46961ccd574331f2ec62f3a..b761d9204adb803df418cf5e4e3f17c82ac72a6d 100644 (file)
@@ -1,6 +1,6 @@
 // -*- mode: cpp; mode: fold -*-
 // Description                                                         /*{{{*/
-// $Id: contents.cc,v 1.2 2001/02/20 07:03:18 jgg Exp $
+// $Id: contents.cc,v 1.4 2003/02/10 07:34:41 doogie Exp $
 /* ######################################################################
    
    contents - Archive contents generator
@@ -13,7 +13,7 @@
    removing the massive sort time overhead.
    
    By breaking all the pathnames into components and storing them 
-   separately a space savings is realized by not duplicating the string
+   separately a space saving is realized by not duplicating the string
    over and over again. Ultimately this saving is sacrificed to storage of
    the tree structure itself but the tree structure yields a speed gain
    in the sorting and processing. Ultimately it takes about 5 seconds to
@@ -35,6 +35,7 @@
 // Include Files                                                       /*{{{*/
 #include "contents.h"
 
+#include <apti18n.h>
 #include <apt-pkg/extracttar.h>
 #include <apt-pkg/error.h>
 #include <stdio.h>
@@ -257,6 +258,7 @@ void GenContents::WriteSpace(FILE *Out,unsigned int Current,unsigned int Target)
 void GenContents::Print(FILE *Out)
 {
    char Buffer[1024];
+   Buffer[0] = 0;
    DoPrint(Out,&Root,Buffer);
 }
 void GenContents::DoPrint(FILE *Out,GenContents::Node *Top, char *Buf)
@@ -306,11 +308,23 @@ bool ContentsExtract::Read(debDebFile &Deb)
    
    // Get the archive member and positition the file 
    const ARArchive::Member *Member = Deb.GotoMember("data.tar.gz");
-   if (Member == 0)
+   const char *Compressor = "gzip";
+   if (Member == 0) {
+      Member = Deb.GotoMember("data.tar.bz2");
+      Compressor = "bzip2";
+   }
+   if (Member == 0) {
+      Member = Deb.GotoMember("data.tar.lzma");
+      Compressor = "lzma";
+   }
+   if (Member == 0) {
+      _error->Error(_("Internal error, could not locate member %s"),
+                   "data.tar.{gz,bz2,lzma}");
       return false;
+   }
       
    // Extract it.
-   ExtractTar Tar(Deb.GetFile(),Member->Size);
+   ExtractTar Tar(Deb.GetFile(),Member->Size,Compressor);
    if (Tar.Go(*this) == false)
       return false;   
    return true;   
@@ -341,7 +355,7 @@ bool ContentsExtract::DoItem(Item &Itm,int &Fd)
         MaxSize = 512*1024/2;
       char *NewData = (char *)realloc(Data,MaxSize*2);
       if (NewData == 0)
-        return _error->Error("realloc - Failed to allocate memory");
+        return _error->Error(_("realloc - Failed to allocate memory"));
       Data = NewData;
       MaxSize *= 2;
    }
@@ -372,7 +386,7 @@ bool ContentsExtract::TakeContents(const void *NewData,unsigned long Length)
       
       char *NewData = (char *)realloc(Data,MaxSize*2);
       if (NewData == 0)
-        return _error->Error("realloc - Failed to allocate memory");
+        return _error->Error(_("realloc - Failed to allocate memory"));
       Data = NewData;
       MaxSize *= 2;
    }
@@ -385,7 +399,7 @@ bool ContentsExtract::TakeContents(const void *NewData,unsigned long Length)
 // ContentsExtract::Add - Read the contents data into the sorter       /*{{{*/
 // ---------------------------------------------------------------------
 /* */
-void ContentsExtract::Add(GenContents &Contents,string Package)
+void ContentsExtract::Add(GenContents &Contents,string const &Package)
 {
    const char *Start = Data;
    char *Pkg = Contents.Mystrdup(Package.c_str());