cleanup
authorHelmut Grohne <helmut@subdivi.de>
Wed, 20 Feb 2013 14:39:33 +0000 (15:39 +0100)
committerHelmut Grohne <helmut@subdivi.de>
Wed, 20 Feb 2013 14:39:33 +0000 (15:39 +0100)
test.py
webapp.py

diff --git a/test.py b/test.py
index 733a52b..4db7d83 100755 (executable)
--- a/test.py
+++ b/test.py
@@ -7,7 +7,6 @@ CREATE INDEX content_hash_index ON content (hash);
 """
 
 import hashlib
-import os
 import re
 import sqlite3
 import struct
@@ -53,7 +52,7 @@ class ArReader(object):
             length = int(parts[5])
             if self.membertest(name):
                 self.remaining = length
-                return name, length
+                return name
             self.skip(length + length % 2)
 
     def read(self, length=None):
@@ -65,9 +64,6 @@ class ArReader(object):
         self.remaining -= len(data)
         return data
 
-    def close(self):
-        self.fileobj.close()
-
 class XzStream(object):
     blocksize = 65536
 
@@ -234,7 +230,7 @@ def gziphash():
 
 def get_hashes(filelike):
     af = ArReader(filelike, lambda name: name.startswith("data.tar"))
-    name, membersize = af.skiptillmember()
+    name = af.skiptillmember()
     if name == "data.tar.gz":
         tf = tarfile.open(fileobj=af, mode="r|gz")
     elif name == "data.tar.bz2":
@@ -245,8 +241,6 @@ def get_hashes(filelike):
     else:
         raise ValueError("unsupported compression %r" % name)
     for elem in tf:
-        if elem.size == 0: # boring
-            continue
         if not elem.isreg(): # excludes hard links as well
             continue
         hasher = MultiHash(sha512_nontrivial(), gziphash())
index b745db2..0cc9c99 100755 (executable)
--- a/webapp.py
+++ b/webapp.py
@@ -4,7 +4,6 @@ import sqlite3
 from wsgiref.simple_server import make_server
 
 import jinja2
-from werkzeug.debug import DebuggedApplication
 from werkzeug.exceptions import HTTPException, NotFound
 from werkzeug.routing import Map, Rule
 from werkzeug.wrappers import Request, Response