]> git.saurik.com Git - apt.git/blobdiff - apt-pkg/pkgcachegen.cc
* apt-pkg/tagfile.cc:
[apt.git] / apt-pkg / pkgcachegen.cc
index 581df11f482788d59fb7fa9bc83f529e3c621fcc..8ec6a171975ce1a28e7eee26beadbcc1a32adf38 100644 (file)
@@ -1,6 +1,6 @@
 // -*- mode: cpp; mode: fold -*-
 // Description                                                         /*{{{*/
-// $Id: pkgcachegen.cc,v 1.51 2002/04/26 05:35:57 jgg Exp $
+// $Id: pkgcachegen.cc,v 1.53.2.1 2003/12/24 23:09:17 mdz Exp $
 /* ######################################################################
    
    Package Cache Generator - Generator for the cache structure.
@@ -26,6 +26,8 @@
 #include <apt-pkg/sptr.h>
 #include <apt-pkg/pkgsystem.h>
 
+#include <apt-pkg/tagfile.h>
+
 #include <apti18n.h>
 
 #include <vector>
@@ -42,7 +44,8 @@ typedef vector<pkgIndexFile *>::iterator FileIterator;
 // ---------------------------------------------------------------------
 /* We set the diry flag and make sure that is written to the disk */
 pkgCacheGenerator::pkgCacheGenerator(DynamicMMap *pMap,OpProgress *Prog) :
-                    Map(*pMap), Cache(pMap,false), Progress(Prog)
+                   Map(*pMap), Cache(pMap,false), Progress(Prog),
+                   FoundFileDeps(0)
 {
    CurrentFile = 0;
    memset(UniqHash,0,sizeof(UniqHash));
@@ -113,7 +116,7 @@ bool pkgCacheGenerator::MergeList(ListParser &List,
       
       pkgCache::PkgIterator Pkg;
       if (NewPackage(Pkg,PackageName) == false)
-        return _error->Error(_("Error occured while processing %s (NewPackage)"),PackageName.c_str());
+        return _error->Error(_("Error occurred while processing %s (NewPackage)"),PackageName.c_str());
       Counter++;
       if (Counter % 100 == 0 && Progress != 0)
         Progress->Progress(List.Offset());
@@ -124,16 +127,46 @@ bool pkgCacheGenerator::MergeList(ListParser &List,
       string Version = List.Version();
       if (Version.empty() == true)
       {
+        // we first process the package, then the descriptions
+        // (this has the bonus that we get MMap error when we run out
+        //  of MMap space)
         if (List.UsePackage(Pkg,pkgCache::VerIterator(Cache)) == false)
-           return _error->Error(_("Error occured while processing %s (UsePackage1)"),
+           return _error->Error(_("Error occurred while processing %s (UsePackage1)"),
                                 PackageName.c_str());
+
+        // Find the right version to write the description
+        MD5SumValue CurMd5 = List.Description_md5();
+        pkgCache::VerIterator Ver = Pkg.VersionList();
+        map_ptrloc *LastVer = &Pkg->VersionList;
+
+        for (; Ver.end() == false; LastVer = &Ver->NextVer, Ver++) 
+        {
+           pkgCache::DescIterator Desc = Ver.DescriptionList();
+           map_ptrloc *LastDesc = &Ver->DescriptionList;
+
+           for (; Desc.end() == false; LastDesc = &Desc->NextDesc, Desc++)
+           {
+
+              if (MD5SumValue(Desc.md5()) == CurMd5) 
+               {
+                 // Add new description
+                 *LastDesc = NewDescription(Desc, List.DescriptionLanguage(), CurMd5, *LastDesc);
+                 Desc->ParentPkg = Pkg.Index();
+                 
+                 if (NewFileDesc(Desc,List) == false)
+                    return _error->Error(_("Error occured while processing %s (NewFileDesc1)"),PackageName.c_str());
+                 break;
+              }
+           }
+        }
+
         continue;
       }
 
       pkgCache::VerIterator Ver = Pkg.VersionList();
-      map_ptrloc *Last = &Pkg->VersionList;
+      map_ptrloc *LastVer = &Pkg->VersionList;
       int Res = 1;
-      for (; Ver.end() == false; Last = &Ver->NextVer, Ver++)
+      for (; Ver.end() == false; LastVer = &Ver->NextVer, Ver++)
       {
         Res = Cache.VS->CmpVersion(Version,Ver.VerStr());
         if (Res >= 0)
@@ -146,17 +179,18 @@ bool pkgCacheGenerator::MergeList(ListParser &List,
       if (Res == 0 && Ver->Hash == Hash)
       {
         if (List.UsePackage(Pkg,Ver) == false)
-           return _error->Error(_("Error occured while processing %s (UsePackage2)"),
+           return _error->Error(_("Error occurred while processing %s (UsePackage2)"),
                                 PackageName.c_str());
 
         if (NewFileVer(Ver,List) == false)
-           return _error->Error(_("Error occured while processing %s (NewFileVer1)"),
+           return _error->Error(_("Error occurred while processing %s (NewFileVer1)"),
                                 PackageName.c_str());
         
         // Read only a single record and return
         if (OutVer != 0)
         {
            *OutVer = Ver;
+           FoundFileDeps |= List.HasFileDeps();
            return true;
         }
         
@@ -166,7 +200,7 @@ bool pkgCacheGenerator::MergeList(ListParser &List,
       // Skip to the end of the same version set.
       if (Res == 0)
       {
-        for (; Ver.end() == false; Last = &Ver->NextVer, Ver++)
+        for (; Ver.end() == false; LastVer = &Ver->NextVer, Ver++)
         {
            Res = Cache.VS->CmpVersion(Version,Ver.VerStr());
            if (Res != 0)
@@ -175,50 +209,120 @@ bool pkgCacheGenerator::MergeList(ListParser &List,
       }
 
       // Add a new version
-      *Last = NewVersion(Ver,Version,*Last);
+      *LastVer = NewVersion(Ver,Version,*LastVer);
       Ver->ParentPkg = Pkg.Index();
       Ver->Hash = Hash;
+
       if (List.NewVersion(Ver) == false)
-        return _error->Error(_("Error occured while processing %s (NewVersion1)"),
+        return _error->Error(_("Error occurred while processing %s (NewVersion1)"),
                              PackageName.c_str());
 
       if (List.UsePackage(Pkg,Ver) == false)
-        return _error->Error(_("Error occured while processing %s (UsePackage3)"),
+        return _error->Error(_("Error occurred while processing %s (UsePackage3)"),
                              PackageName.c_str());
       
       if (NewFileVer(Ver,List) == false)
-        return _error->Error(_("Error occured while processing %s (NewVersion2)"),
+        return _error->Error(_("Error occurred while processing %s (NewVersion2)"),
                              PackageName.c_str());
 
       // Read only a single record and return
       if (OutVer != 0)
       {
         *OutVer = Ver;
+        FoundFileDeps |= List.HasFileDeps();
         return true;
       }      
+
+      /* Record the Description data. Description data always exist in
+        Packages and Translation-* files. */
+      pkgCache::DescIterator Desc = Ver.DescriptionList();
+      map_ptrloc *LastDesc = &Ver->DescriptionList;
+      
+      // Skip to the end of description set
+      for (; Desc.end() == false; LastDesc = &Desc->NextDesc, Desc++);
+
+      // Add new description
+      *LastDesc = NewDescription(Desc, List.DescriptionLanguage(), List.Description_md5(), *LastDesc);
+      Desc->ParentPkg = Pkg.Index();
+
+      if (NewFileDesc(Desc,List) == false)
+        return _error->Error(_("Error occured while processing %s (NewFileDesc2)"),PackageName.c_str());
    }
 
+   FoundFileDeps |= List.HasFileDeps();
+
    if (Cache.HeaderP->PackageCount >= (1ULL<<sizeof(Cache.PkgP->ID)*8)-1)
       return _error->Error(_("Wow, you exceeded the number of package "
                             "names this APT is capable of."));
    if (Cache.HeaderP->VersionCount >= (1ULL<<(sizeof(Cache.VerP->ID)*8))-1)
       return _error->Error(_("Wow, you exceeded the number of versions "
                             "this APT is capable of."));
+   if (Cache.HeaderP->DescriptionCount >= (1ULL<<(sizeof(Cache.DescP->ID)*8))-1)
+      return _error->Error(_("Wow, you exceeded the number of descriptions "
+                            "this APT is capable of."));
    if (Cache.HeaderP->DependsCount >= (1ULL<<(sizeof(Cache.DepP->ID)*8))-1ULL)
       return _error->Error(_("Wow, you exceeded the number of dependencies "
                             "this APT is capable of."));
    return true;
 }
                                                                        /*}}}*/
+// CacheGenerator::MergeFileProvides - Merge file provides             /*{{{*/
+// ---------------------------------------------------------------------
+/* If we found any file depends while parsing the main list we need to 
+   resolve them. Since it is undesired to load the entire list of files
+   into the cache as virtual packages we do a two stage effort. MergeList
+   identifies the file depends and this creates Provdies for them by
+   re-parsing all the indexs. */
+bool pkgCacheGenerator::MergeFileProvides(ListParser &List)
+{
+   List.Owner = this;
+   
+   unsigned int Counter = 0;
+   while (List.Step() == true)
+   {
+      string PackageName = List.Package();
+      if (PackageName.empty() == true)
+        return false;
+      string Version = List.Version();
+      if (Version.empty() == true)
+        continue;
+      
+      pkgCache::PkgIterator Pkg = Cache.FindPkg(PackageName);
+      if (Pkg.end() == true)
+        return _error->Error(_("Error occurred while processing %s (FindPkg)"),
+                               PackageName.c_str());
+      Counter++;
+      if (Counter % 100 == 0 && Progress != 0)
+        Progress->Progress(List.Offset());
+
+      unsigned long Hash = List.VersionHash();
+      pkgCache::VerIterator Ver = Pkg.VersionList();
+      for (; Ver.end() == false; Ver++)
+      {
+        if (Ver->Hash == Hash && Version.c_str() == Ver.VerStr())
+        {
+           if (List.CollectFileProvides(Cache,Ver) == false)
+              return _error->Error(_("Error occurred while processing %s (CollectFileProvides)"),PackageName.c_str());
+           break;
+        }
+      }
+      
+      if (Ver.end() == true)
+        _error->Warning(_("Package %s %s was not found while processing file dependencies"),PackageName.c_str(),Version.c_str());
+   }
+
+   return true;
+}
+                                                                       /*}}}*/
 // CacheGenerator::NewPackage - Add a new package                      /*{{{*/
 // ---------------------------------------------------------------------
 /* This creates a new package structure and adds it to the hash table */
-bool pkgCacheGenerator::NewPackage(pkgCache::PkgIterator &Pkg,string Name)
+bool pkgCacheGenerator::NewPackage(pkgCache::PkgIterator &Pkg,const string &Name)
 {
    Pkg = Cache.FindPkg(Name);
    if (Pkg.end() == false)
       return true;
-       
+
    // Get a structure
    unsigned long Package = Map.Allocate(sizeof(pkgCache::Package));
    if (Package == 0)
@@ -277,7 +381,7 @@ bool pkgCacheGenerator::NewFileVer(pkgCache::VerIterator &Ver,
 // ---------------------------------------------------------------------
 /* This puts a version structure in the linked list */
 unsigned long pkgCacheGenerator::NewVersion(pkgCache::VerIterator &Ver,
-                                           string VerStr,
+                                           const string &VerStr,
                                            unsigned long Next)
 {
    // Get a structure
@@ -296,13 +400,69 @@ unsigned long pkgCacheGenerator::NewVersion(pkgCache::VerIterator &Ver,
    return Version;
 }
                                                                        /*}}}*/
+// CacheGenerator::NewFileDesc - Create a new File<->Desc association  /*{{{*/
+// ---------------------------------------------------------------------
+/* */
+bool pkgCacheGenerator::NewFileDesc(pkgCache::DescIterator &Desc,
+                                  ListParser &List)
+{
+   if (CurrentFile == 0)
+      return true;
+   
+   // Get a structure
+   unsigned long DescFile = Map.Allocate(sizeof(pkgCache::DescFile));
+   if (DescFile == 0)
+      return 0;
+
+   pkgCache::DescFileIterator DF(Cache,Cache.DescFileP + DescFile);
+   DF->File = CurrentFile - Cache.PkgFileP;
+
+   // Link it to the end of the list
+   map_ptrloc *Last = &Desc->FileList;
+   for (pkgCache::DescFileIterator D = Desc.FileList(); D.end() == false; D++)
+      Last = &D->NextFile;
+
+   DF->NextFile = *Last;
+   *Last = DF.Index();
+   
+   DF->Offset = List.Offset();
+   DF->Size = List.Size();
+   if (Cache.HeaderP->MaxDescFileSize < DF->Size)
+      Cache.HeaderP->MaxDescFileSize = DF->Size;
+   Cache.HeaderP->DescFileCount++;
+   
+   return true;
+}
+                                                                       /*}}}*/
+// CacheGenerator::NewDescription - Create a new Description           /*{{{*/
+// ---------------------------------------------------------------------
+/* This puts a description structure in the linked list */
+map_ptrloc pkgCacheGenerator::NewDescription(pkgCache::DescIterator &Desc,
+                                           const string &Lang, const MD5SumValue &md5sum,
+                                           map_ptrloc Next)
+{
+   // Get a structure
+   map_ptrloc Description = Map.Allocate(sizeof(pkgCache::Description));
+   if (Description == 0)
+      return 0;
+
+   // Fill it in
+   Desc = pkgCache::DescIterator(Cache,Cache.DescP + Description);
+   Desc->NextDesc = Next;
+   Desc->ID = Cache.HeaderP->DescriptionCount++;
+   Desc->language_code = Map.WriteString(Lang);
+   Desc->md5sum = Map.WriteString(md5sum.Value());
+
+   return Description;
+}
+                                                                       /*}}}*/
 // ListParser::NewDepends - Create a dependency element                        /*{{{*/
 // ---------------------------------------------------------------------
 /* This creates a dependency element in the tree. It is linked to the
    version and to the package that it is pointing to. */
 bool pkgCacheGenerator::ListParser::NewDepends(pkgCache::VerIterator Ver,
-                                              string PackageName,
-                                              string Version,
+                                              const string &PackageName,
+                                              const string &Version,
                                               unsigned int Op,
                                               unsigned int Type)
 {
@@ -350,6 +510,10 @@ bool pkgCacheGenerator::ListParser::NewDepends(pkgCache::VerIterator Ver,
         OldDepLast = &D->NextDepends;
       OldDepVer = Ver;
    }
+
+   // Is it a file dependency?
+   if (PackageName[0] == '/')
+      FoundFileDeps = true;
    
    Dep->NextDepends = *OldDepLast;
    *OldDepLast = Dep.Index();
@@ -362,8 +526,8 @@ bool pkgCacheGenerator::ListParser::NewDepends(pkgCache::VerIterator Ver,
 // ---------------------------------------------------------------------
 /* */
 bool pkgCacheGenerator::ListParser::NewProvides(pkgCache::VerIterator Ver,
-                                               string PackageName,
-                                               string Version)
+                                               const string &PackageName,
+                                               const string &Version)
 {
    pkgCache &Cache = Owner->Cache;
 
@@ -402,7 +566,7 @@ bool pkgCacheGenerator::ListParser::NewProvides(pkgCache::VerIterator Ver,
 // ---------------------------------------------------------------------
 /* This is used to select which file is to be associated with all newly
    added versions. The caller is responsible for setting the IMS fields. */
-bool pkgCacheGenerator::SelectFile(string File,string Site,
+bool pkgCacheGenerator::SelectFile(const string &File,const string &Site,
                                   const pkgIndexFile &Index,
                                   unsigned long Flags)
 {
@@ -486,7 +650,7 @@ unsigned long pkgCacheGenerator::WriteUniqString(const char *S,
 /* This just verifies that each file in the list of index files exists,
    has matching attributes with the cache and the cache does not have
    any extra files. */
-static bool CheckValidity(string CacheFile, FileIterator Start, 
+static bool CheckValidity(const string &CacheFile, FileIterator Start, 
                           FileIterator End,MMap **OutMap = 0)
 {
    // No file, certainly invalid
@@ -514,8 +678,10 @@ static bool CheckValidity(string CacheFile, FileIterator Start,
     
       if ((*Start)->Exists() == false)
       {
+#if 0 // mvo: we no longer give a message here (Default Sources spec)
         _error->WarningE("stat",_("Couldn't stat source package list %s"),
                          (*Start)->Describe().c_str());
+#endif
         continue;
       }
 
@@ -523,7 +689,7 @@ static bool CheckValidity(string CacheFile, FileIterator Start,
       pkgCache::PkgFileIterator File = (*Start)->FindInCache(Cache);
       if (File.end() == true)
         return false;
-      
+
       Visited[File->ID] = true;
    }
    
@@ -566,28 +732,44 @@ static bool BuildCache(pkgCacheGenerator &Gen,
                       unsigned long &CurrentSize,unsigned long TotalSize,
                       FileIterator Start, FileIterator End)
 {
-   for (; Start != End; Start++)
+   FileIterator I;
+   for (I = Start; I != End; I++)
    {
-      if ((*Start)->HasPackages() == false)
+      if ((*I)->HasPackages() == false)
         continue;
       
-      if ((*Start)->Exists() == false)
+      if ((*I)->Exists() == false)
         continue;
 
-      if ((*Start)->FindInCache(Gen.GetCache()).end() == false)
+      if ((*I)->FindInCache(Gen.GetCache()).end() == false)
       {
         _error->Warning("Duplicate sources.list entry %s",
-                        (*Start)->Describe().c_str());
+                        (*I)->Describe().c_str());
         continue;
       }
       
-      unsigned long Size = (*Start)->Size();
-      Progress.OverallProgress(CurrentSize,TotalSize,Size,_("Reading Package Lists"));
+      unsigned long Size = (*I)->Size();
+      Progress.OverallProgress(CurrentSize,TotalSize,Size,_("Reading package lists"));
       CurrentSize += Size;
       
-      if ((*Start)->Merge(Gen,Progress) == false)
+      if ((*I)->Merge(Gen,Progress) == false)
         return false;
    }   
+
+   if (Gen.HasFileDeps() == true)
+   {
+      Progress.Done();
+      TotalSize = ComputeSize(Start, End);
+      CurrentSize = 0;
+      for (I = Start; I != End; I++)
+      {
+        unsigned long Size = (*I)->Size();
+        Progress.OverallProgress(CurrentSize,TotalSize,Size,_("Collecting File Provides"));
+        CurrentSize += Size;
+        if ((*I)->MergeFileProvides(Gen,Progress) == false)
+           return false;
+      }
+   }
    
    return true;
 }
@@ -603,9 +785,20 @@ static bool BuildCache(pkgCacheGenerator &Gen,
 bool pkgMakeStatusCache(pkgSourceList &List,OpProgress &Progress,
                        MMap **OutMap,bool AllowMem)
 {
-   unsigned long MapSize = _config->FindI("APT::Cache-Limit",6*1024*1024);
+   unsigned long MapSize = _config->FindI("APT::Cache-Limit",16*1024*1024);
+   
+   vector<pkgIndexFile *> Files;
+   for (vector<metaIndex *>::const_iterator i = List.begin();
+        i != List.end();
+        i++)
+   {
+      vector <pkgIndexFile *> *Indexes = (*i)->GetIndexFiles();
+      for (vector<pkgIndexFile *>::const_iterator j = Indexes->begin();
+          j != Indexes->end();
+          j++)
+         Files.push_back (*j);
+   }
    
-   vector<pkgIndexFile *> Files(List.begin(),List.end());
    unsigned long EndOfSource = Files.size();
    if (_system->AddStatusFiles(Files) == false)
       return false;
@@ -625,12 +818,12 @@ bool pkgMakeStatusCache(pkgSourceList &List,OpProgress &Progress,
    if (Writeable == false && AllowMem == false && CacheFile.empty() == false)
       return _error->Error(_("Unable to write to %s"),flNotFile(CacheFile).c_str());
    
-   Progress.OverallProgress(0,1,1,_("Reading Package Lists"));
+   Progress.OverallProgress(0,1,1,_("Reading package lists"));
    
    // Cache is OK, Fin.
    if (CheckValidity(CacheFile,Files.begin(),Files.end(),OutMap) == true)
    {
-      Progress.OverallProgress(1,1,1,_("Reading Package Lists"));
+      Progress.OverallProgress(1,1,1,_("Reading package lists"));
       return true;
    }
    
@@ -739,7 +932,7 @@ bool pkgMakeStatusCache(pkgSourceList &List,OpProgress &Progress,
 /* */
 bool pkgMakeOnlyStatusCache(OpProgress &Progress,DynamicMMap **OutMap)
 {
-   unsigned long MapSize = _config->FindI("APT::Cache-Limit",4*1024*1024);
+   unsigned long MapSize = _config->FindI("APT::Cache-Limit",12*1024*1024);
    vector<pkgIndexFile *> Files;
    unsigned long EndOfSource = Files.size();
    if (_system->AddStatusFiles(Files) == false)
@@ -753,7 +946,7 @@ bool pkgMakeOnlyStatusCache(OpProgress &Progress,DynamicMMap **OutMap)
    TotalSize = ComputeSize(Files.begin()+EndOfSource,Files.end());
    
    // Build the status cache
-   Progress.OverallProgress(0,1,1,_("Reading Package Lists"));
+   Progress.OverallProgress(0,1,1,_("Reading package lists"));
    pkgCacheGenerator Gen(Map.Get(),&Progress);
    if (_error->PendingError() == true)
       return false;