]> git.saurik.com Git - apt.git/commitdiff
* methods/https.cc:
authorMichael Vogt <michael.vogt@ubuntu.com>
Fri, 5 Oct 2007 05:50:24 +0000 (07:50 +0200)
committerMichael Vogt <michael.vogt@ubuntu.com>
Fri, 5 Oct 2007 05:50:24 +0000 (07:50 +0200)
  - fix off-by-one error I-M-S handling
  - cleanup after I-M-S hit
  - only send LastModified if we actually have a file
  - delete zero size I-M-S hits

debian/changelog
methods/https.cc

index b25e75ef5a8e86ca2946d6828f45749f0049d28c..30ac4e10dec48ffe9f9c0ce0d901e3669a68c2ec 100644 (file)
@@ -4,6 +4,9 @@ apt (0.7.6ubuntu13) gutsy; urgency=low
     - fix crash in WriteApportReport (LP: #144537)
   * apt-pkg/acquire-item.cc
     - fix disappearing local Packages.gz file (LP: #131166)
+  * methods/https.cc:
+    - fix off-by-one error I-M-S handling
+    - cleanup after I-M-S hit
 
  --
 
@@ -124,10 +127,11 @@ apt (0.7.6ubuntu1) gutsy; urgency=low
   * apt-pkg/acquire-item.cc:
     - remove zero size files on I-M-S hit
   * methods/https.cc:
-    - only send LastModified if we actually have one
+    - only send LastModified if we actually have a file
     - send range request with if-range 
     - delete failed downloads
     (thanks to Thom May for his help here)
+    - delete zero size I-M-S hits
   * apt-pkg/deb/dpkgpm.{cc,h}:
     - merged dpkg-log branch, this lets you specify a 
       Dir::Log::Terminal file to log dpkg output to
index 3b2b0bb19e3dfb8c2ac6139ee0955f1a54fc5fc9..b2bbbddb19870ef80bdb4f1963c8489d49a68141 100644 (file)
@@ -161,13 +161,6 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    }
    curl_easy_setopt(curl, CURLOPT_HTTPHEADER, headers);
 
-   // set time values
-   if(Itm->LastModified > 0)
-   {
-      curl_easy_setopt(curl, CURLOPT_TIMECONDITION, CURL_TIMECOND_IFMODSINCE);
-      curl_easy_setopt(curl, CURLOPT_TIMEVALUE, Itm->LastModified);
-   }
-
    // speed limit
    int dlLimit = _config->FindI("Acquire::http::Dl-Limit",0)*1024;
    if (dlLimit > 0)
@@ -183,7 +176,7 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    // error handling
    curl_easy_setopt(curl, CURLOPT_ERRORBUFFER, curl_errorstr);
 
-   // In this case we send an if-range query with a range header
+   // if we have the file send an if-range query with a range header
    if (stat(Itm->DestFile.c_str(),&SBuf) >= 0 && SBuf.st_size > 0)
    {
       char Buf[1000];
@@ -191,11 +184,17 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
              (long)SBuf.st_size - 1,
              TimeRFC1123(SBuf.st_mtime).c_str());
       headers = curl_slist_append(headers, Buf);
+   } 
+   else if(Itm->LastModified > 0)
+   {
+      curl_easy_setopt(curl, CURLOPT_TIMECONDITION, CURL_TIMECOND_IFMODSINCE);
+      curl_easy_setopt(curl, CURLOPT_TIMEVALUE, Itm->LastModified);
    }
 
    // go for it - if the file exists, append on it
    File = new FileFd(Itm->DestFile, FileFd::WriteAny);
-   File->Seek(File->Size());
+   if (File->Size() > 0)
+      File->Seek(File->Size() - 1);
    
    // keep apt updated
    Res.Filename = Itm->DestFile;
@@ -217,9 +216,6 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    }
    File->Close();
 
-   if (Res.Size == 0)
-      Res.Size = File->Size();
-
    // Timestamp
    struct utimbuf UBuf;
    if (curl_servdate != -1) {
@@ -232,15 +228,19 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    struct stat Buf;
    if (stat(File->Name().c_str(),&Buf) == 0)
    {
-      Res.Size = Buf.st_size;
       Res.Filename = File->Name();
       Res.LastModified = Buf.st_mtime;
       Res.IMSHit = false;
       if (curl_responsecode == 304)
       {
+        unlink(File->Name().c_str());
         Res.IMSHit = true;
         Res.LastModified = Itm->LastModified;
+        Res.Size = 0;
+        URIDone(Res);
+        return true;
       }
+      Res.Size = Buf.st_size;
    }
 
    // take hashes