]> git.saurik.com Git - apt.git/blobdiff - methods/https.cc
merged from apt-authentication-reliability
[apt.git] / methods / https.cc
index b758e4ab3a1ea1a165c0be84537eef6f639e2298..b2bbbddb19870ef80bdb4f1963c8489d49a68141 100644 (file)
@@ -3,7 +3,7 @@
 // $Id: http.cc,v 1.59 2004/05/08 19:42:35 mdz Exp $
 /* ######################################################################
 
-   HTTPS Aquire Method - This is the HTTPS aquire method for APT.
+   HTTPS Acquire Method - This is the HTTPS aquire method for APT.
    
    It uses libcurl
 
@@ -50,13 +50,13 @@ HttpsMethod::progress_callback(void *clientp, double dltotal, double dlnow,
 {
    HttpsMethod *me = (HttpsMethod *)clientp;
    if(dltotal > 0 && me->Res.Size == 0) {
-      me->Res.Size = dltotal;
+      me->Res.Size = (unsigned long)dltotal;
       me->URIStart(me->Res);
    }
    return 0;
 }
 
-bool HttpsMethod::SetupProxy()
+void HttpsMethod::SetupProxy()
 {
    URI ServerName = Queue->Uri;
 
@@ -84,7 +84,6 @@ bool HttpsMethod::SetupProxy()
    }
    
    // Determine what host and port to use based on the proxy settings
-   int Port = 0;
    string Host;   
    if (Proxy.empty() == true || Proxy.Host.empty() == true)
    {
@@ -108,6 +107,7 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    struct stat SBuf;
    struct curl_slist *headers=NULL;  
    char curl_errorstr[CURL_ERROR_SIZE];
+   long curl_responsecode;
 
    // TODO:
    //       - http::Timeout
@@ -115,6 +115,7 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    //       - error checking/reporting
    //       - more debug options? (CURLOPT_DEBUGFUNCTION?)
 
+   curl_easy_reset(curl);
    SetupProxy();
 
    // callbacks
@@ -125,6 +126,7 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    curl_easy_setopt(curl, CURLOPT_PROGRESSDATA, this);
    curl_easy_setopt(curl, CURLOPT_NOPROGRESS, false);
    curl_easy_setopt(curl, CURLOPT_FAILONERROR, true);
+   curl_easy_setopt(curl, CURLOPT_FILETIME, true);
 
    // FIXME: https: offer various options of verification
    bool peer_verify = _config->FindB("Acquire::https::Verify-Peer", false);
@@ -159,10 +161,6 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    }
    curl_easy_setopt(curl, CURLOPT_HTTPHEADER, headers);
 
-   // set time values
-   curl_easy_setopt(curl, CURLOPT_TIMECONDITION, CURL_TIMECOND_IFMODSINCE);
-   curl_easy_setopt(curl, CURLOPT_TIMEVALUE, Itm->LastModified);
-
    // speed limit
    int dlLimit = _config->FindI("Acquire::http::Dl-Limit",0)*1024;
    if (dlLimit > 0)
@@ -178,44 +176,71 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    // error handling
    curl_easy_setopt(curl, CURLOPT_ERRORBUFFER, curl_errorstr);
 
-   // In this case we send an if-range query with a range header
-  if (stat(Itm->DestFile.c_str(),&SBuf) >= 0 && SBuf.st_size > 0)
-     curl_easy_setopt(curl, CURLOPT_RESUME_FROM, (long)SBuf.st_size);
+   // if we have the file send an if-range query with a range header
+   if (stat(Itm->DestFile.c_str(),&SBuf) >= 0 && SBuf.st_size > 0)
+   {
+      char Buf[1000];
+      sprintf(Buf,"Range: bytes=%li-\r\nIf-Range: %s\r\n",
+             (long)SBuf.st_size - 1,
+             TimeRFC1123(SBuf.st_mtime).c_str());
+      headers = curl_slist_append(headers, Buf);
+   } 
+   else if(Itm->LastModified > 0)
+   {
+      curl_easy_setopt(curl, CURLOPT_TIMECONDITION, CURL_TIMECOND_IFMODSINCE);
+      curl_easy_setopt(curl, CURLOPT_TIMEVALUE, Itm->LastModified);
+   }
 
    // go for it - if the file exists, append on it
    File = new FileFd(Itm->DestFile, FileFd::WriteAny);
-   File->Seek(File->Size());
+   if (File->Size() > 0)
+      File->Seek(File->Size() - 1);
    
    // keep apt updated
    Res.Filename = Itm->DestFile;
 
    // get it!
    CURLcode success = curl_easy_perform(curl);
+   curl_easy_getinfo(curl, CURLINFO_RESPONSE_CODE, &curl_responsecode);
 
+   long curl_servdate;
+   curl_easy_getinfo(curl, CURLINFO_FILETIME, &curl_servdate);
 
    // cleanup
-   if(success != 0) {
+   if(success != 0) 
+   {
+      unlink(File->Name().c_str());
       _error->Error(curl_errorstr);
       Fail();
       return true;
    }
+   File->Close();
 
-   if (Res.Size == 0)
-      Res.Size = File->Size();
+   // Timestamp
+   struct utimbuf UBuf;
+   if (curl_servdate != -1) {
+       UBuf.actime = curl_servdate;
+       UBuf.modtime = curl_servdate;
+       utime(File->Name().c_str(),&UBuf);
+   }
 
    // check the downloaded result
    struct stat Buf;
    if (stat(File->Name().c_str(),&Buf) == 0)
    {
-      Res.Size = Buf.st_size;
       Res.Filename = File->Name();
       Res.LastModified = Buf.st_mtime;
       Res.IMSHit = false;
-      if (Itm->LastModified != 0 && Buf.st_mtime >= Itm->LastModified)
+      if (curl_responsecode == 304)
       {
+        unlink(File->Name().c_str());
         Res.IMSHit = true;
         Res.LastModified = Itm->LastModified;
+        Res.Size = 0;
+        URIDone(Res);
+        return true;
       }
+      Res.Size = Buf.st_size;
    }
 
    // take hashes
@@ -228,7 +253,6 @@ bool HttpsMethod::Fetch(FetchItem *Itm)
    URIDone(Res);
 
    // cleanup
-   File->Close();
    Res.Size = 0;
    delete File;
    curl_slist_free_all(headers);