]> git.saurik.com Git - apt.git/blobdiff - apt-pkg/pkgcachegen.cc
Makefile: Add a make fast command for development
[apt.git] / apt-pkg / pkgcachegen.cc
index cf845b0fb3abf6bb96aca187fbb522b1e294ad36..ef7afda944d177f21ab56a322e2a19c0d5bf0c8e 100644 (file)
@@ -42,7 +42,8 @@
 #include <unistd.h>
 
 #include <apti18n.h>
-                                                                       /*}}}*/
+
+template<class T> using Dynamic = pkgCacheGenerator::Dynamic<T>;                                                       /*}}}*/
 typedef std::vector<pkgIndexFile *>::iterator FileIterator;
 template <typename Iter> std::vector<Iter*> pkgCacheGenerator::Dynamic<Iter>::toReMap;
 
@@ -56,7 +57,7 @@ using std::string;
 /* We set the dirty flag and make sure that is written to the disk */
 pkgCacheGenerator::pkgCacheGenerator(DynamicMMap *pMap,OpProgress *Prog) :
                    Map(*pMap), Cache(pMap,false), Progress(Prog),
-                    CurrentRlsFile(NULL), CurrentFile(NULL), FoundFileDeps(0), d(NULL)
+                    CurrentRlsFile(NULL), CurrentFile(NULL), d(NULL)
 {
    if (_error->PendingError() == true)
       return;
@@ -229,22 +230,6 @@ bool pkgCacheGenerator::MergeList(ListParser &List,
         continue;
       }
 
-      if (Arch.empty() == true)
-      {
-        // use the pseudo arch 'none' for arch-less packages
-        Arch = "none";
-        /* We might built a SingleArchCache here, which we don't want to blow up
-           just for these :none packages to a proper MultiArchCache, so just ensure
-           that we have always a native package structure first for SingleArch */
-        pkgCache::PkgIterator NP;
-        Dynamic<pkgCache::PkgIterator> DynPkg(NP);
-        if (NewPackage(NP, PackageName, _config->Find("APT::Architecture")) == false)
-        // TRANSLATOR: The first placeholder is a package name,
-        // the other two should be copied verbatim as they include debug info
-        return _error->Error(_("Error occurred while processing %s (%s%d)"),
-                             PackageName.c_str(), "NewPackage", 0);
-      }
-
       // Get a pointer to the package structure
       pkgCache::PkgIterator Pkg;
       Dynamic<pkgCache::PkgIterator> DynPkg(Pkg);
@@ -267,10 +252,7 @@ bool pkgCacheGenerator::MergeList(ListParser &List,
       }
 
       if (OutVer != 0)
-      {
-        FoundFileDeps |= List.HasFileDeps();
         return true;
-      }
    }
 
    if (Cache.HeaderP->PackageCount >= std::numeric_limits<map_id_t>::max())
@@ -286,7 +268,6 @@ bool pkgCacheGenerator::MergeList(ListParser &List,
       return _error->Error(_("Wow, you exceeded the number of dependencies "
                             "this APT is capable of."));
 
-   FoundFileDeps |= List.HasFileDeps();
    return true;
 }
 // CacheGenerator::MergeListGroup                                      /*{{{*/
@@ -444,40 +425,6 @@ bool pkgCacheGenerator::MergeListVersion(ListParser &List, pkgCache::PkgIterator
               return _error->Error(_("Error occurred while processing %s (%s%d)"),
                                    Pkg.Name(), "AddImplicitDepends", 1);
       }
-      /* :none packages are packages without an architecture. They are forbidden by
-        debian-policy, so usually they will only be in (old) dpkg status files -
-        and dpkg will complain about them - and are pretty rare. We therefore do
-        usually not create conflicts while the parent is created, but only if a :none
-        package (= the target) appears. This creates incorrect dependencies on :none
-        for architecture-specific dependencies on the package we copy from, but we
-        will ignore this bug as architecture-specific dependencies are only allowed
-        in jessie and until then the :none packages should be extinct (hopefully).
-        In other words: This should work long enough to allow graceful removal of
-        these packages, it is not supposed to allow users to keep using them … */
-      if (strcmp(Pkg.Arch(), "none") == 0)
-      {
-        pkgCache::PkgIterator M = Grp.FindPreferredPkg();
-        if (M.end() == false && Pkg != M)
-        {
-           pkgCache::DepIterator D = M.RevDependsList();
-           Dynamic<pkgCache::DepIterator> DynD(D);
-           for (; D.end() == false; ++D)
-           {
-              if ((D->Type != pkgCache::Dep::Conflicts &&
-                   D->Type != pkgCache::Dep::DpkgBreaks &&
-                   D->Type != pkgCache::Dep::Replaces) ||
-                  D.ParentPkg().Group() == Grp)
-                 continue;
-
-              map_pointer_t *OldDepLast = NULL;
-              pkgCache::VerIterator ConVersion = D.ParentVer();
-              Dynamic<pkgCache::VerIterator> DynV(ConVersion);
-              // duplicate the Conflicts/Breaks/Replaces for :none arch
-              NewDepends(Pkg, ConVersion, D->Version,
-                    D->CompareOp, D->Type, OldDepLast);
-           }
-        }
-      }
    }
    if (unlikely(AddImplicitDepends(Grp, Pkg, Ver) == false))
       return _error->Error(_("Error occurred while processing %s (%s%d)"),
@@ -547,57 +494,6 @@ bool pkgCacheGenerator::AddNewDescription(ListParser &List, pkgCache::VerIterato
 }
                                                                        /*}}}*/
                                                                        /*}}}*/
-// CacheGenerator::MergeFileProvides - Merge file provides             /*{{{*/
-// ---------------------------------------------------------------------
-/* If we found any file depends while parsing the main list we need to 
-   resolve them. Since it is undesired to load the entire list of files
-   into the cache as virtual packages we do a two stage effort. MergeList
-   identifies the file depends and this creates Provdies for them by
-   re-parsing all the indexs. */
-bool pkgCacheGenerator::MergeFileProvides(ListParser &List)
-{
-   List.Owner = this;
-   
-   unsigned int Counter = 0;
-   while (List.Step() == true)
-   {
-      string PackageName = List.Package();
-      if (PackageName.empty() == true)
-        return false;
-      string Version = List.Version();
-      if (Version.empty() == true)
-        continue;
-      
-      pkgCache::PkgIterator Pkg = Cache.FindPkg(PackageName);
-      Dynamic<pkgCache::PkgIterator> DynPkg(Pkg);
-      if (Pkg.end() == true)
-        return _error->Error(_("Error occurred while processing %s (%s%d)"),
-                               PackageName.c_str(), "FindPkg", 1);
-      Counter++;
-      if (Counter % 100 == 0 && Progress != 0)
-        Progress->Progress(List.Offset());
-
-      unsigned short Hash = List.VersionHash();
-      pkgCache::VerIterator Ver = Pkg.VersionList();
-      Dynamic<pkgCache::VerIterator> DynVer(Ver);
-      for (; Ver.end() == false; ++Ver)
-      {
-        if (List.SameVersion(Hash, Ver) == true && Version == Ver.VerStr())
-        {
-           if (List.CollectFileProvides(Cache,Ver) == false)
-              return _error->Error(_("Error occurred while processing %s (%s%d)"),
-                                   PackageName.c_str(), "CollectFileProvides", 1);
-           break;
-        }
-      }
-      
-      if (Ver.end() == true)
-        _error->Warning(_("Package %s %s was not found while processing file dependencies"),PackageName.c_str(),Version.c_str());
-   }
-
-   return true;
-}
-                                                                       /*}}}*/
 // CacheGenerator::NewGroup - Add a new group                          /*{{{*/
 // ---------------------------------------------------------------------
 /* This creates a new group structure and adds it to the hash table */
@@ -1063,10 +959,6 @@ bool pkgCacheListParser::NewDepends(pkgCache::VerIterator &Ver,
    if (unlikely(Owner->NewGroup(Grp, PackageName) == false))
       return false;
 
-   // Is it a file dependency?
-   if (unlikely(PackageName[0] == '/'))
-      FoundFileDeps = true;
-
    map_stringitem_t idxVersion = 0;
    if (Version.empty() == false)
    {
@@ -1489,13 +1381,9 @@ static bool BuildCache(pkgCacheGenerator &Gen,
                       FileIterator const Start, FileIterator const End)
 {
    std::vector<pkgIndexFile *> Files;
-   bool const HasFileDeps = Gen.HasFileDeps();
    bool mergeFailure = false;
 
    auto const indexFileMerge = [&](pkgIndexFile * const I) {
-      if (HasFileDeps)
-        Files.push_back(I);
-
       if (I->HasPackages() == false || mergeFailure)
         return;
 
@@ -1547,24 +1435,6 @@ static bool BuildCache(pkgCacheGenerator &Gen,
       if (mergeFailure)
         return false;
    }
-
-   if (HasFileDeps == true)
-   {
-      if (Progress != NULL)
-        Progress->Done();
-      TotalSize = ComputeSize(List, Start, End);
-      CurrentSize = 0;
-      for (std::vector<pkgIndexFile *>::const_iterator I = Files.begin(); I != Files.end(); ++I)
-      {
-        map_filesize_t Size = (*I)->Size();
-        if (Progress != NULL)
-           Progress->OverallProgress(CurrentSize,TotalSize,Size,_("Collecting File Provides"));
-        CurrentSize += Size;
-        if ((*I)->MergeFileProvides(Gen,Progress) == false)
-           return false;
-      }
-   }
-
    return true;
 }
                                                                        /*}}}*/
@@ -1828,12 +1698,6 @@ static bool IsDuplicateDescription(pkgCache::DescIterator Desc,
    return false;
 }
                                                                        /*}}}*/
-// CacheGenerator::FinishCache                                         /*{{{*/
-bool pkgCacheGenerator::FinishCache(OpProgress * /*Progress*/)
-{
-   return true;
-}
-                                                                       /*}}}*/
 
-pkgCacheListParser::pkgCacheListParser() : Owner(NULL), OldDepLast(NULL), FoundFileDeps(false), d(NULL) {}
+pkgCacheListParser::pkgCacheListParser() : Owner(NULL), OldDepLast(NULL), d(NULL) {}
 pkgCacheListParser::~pkgCacheListParser() {}