drop support for Python 2.x master
authorHelmut Grohne <helmut@subdivi.de>
Sun, 16 Feb 2020 07:21:20 +0000 (08:21 +0100)
committerHelmut Grohne <helmut@subdivi.de>
Sun, 16 Feb 2020 07:21:20 +0000 (08:21 +0100)
13 files changed:
README
autoimport.py
dedup/arreader.py
dedup/compression.py
dedup/debpkg.py
dedup/filemagic.py
dedup/hashing.py
dedup/image.py
dedup/utils.py
importpkg.py
readyaml.py
update_sharing.py
webapp.py

diff --git a/README b/README
index 5329bd8..d0a488c 100644 (file)
--- a/README
+++ b/README
@@ -1,7 +1,7 @@
 Required packages
 -----------------
 
-    aptitude install python python-debian python-lzma python-jinja2 python-werkzeug sqlite3 python-imaging python-yaml python-concurrent.futures python-pkg-resources
+    aptitude install python3 python3-debian python3-lzma python3-jinja2 python3-werkzeug sqlite3 python3-imaging python3-yaml python3-concurrent.futures python3-pkg-resources
 
 Create a database
 -----------------
index e51d052..ec47db0 100755 (executable)
@@ -1,4 +1,4 @@
-#!/usr/bin/python
+#!/usr/bin/python3
 """This scrip takes a directory or a http base url to a mirror and imports all
 packages contained. It has rather strong assumptions on the working directory.
 """
@@ -12,11 +12,7 @@ import sqlite3
 import subprocess
 import sys
 import tempfile
-try:
-    from urllib.parse import unquote
-except ImportError:
-    from urllib import unquote
-
+import urllib.parse
 import concurrent.futures
 from debian import deb822
 from debian.debian_support import version_compare
@@ -47,7 +43,7 @@ def process_file(pkgs, filename):
     if len(parts) != 3:
         raise ValueError("filename not in form name_version_arch.deb")
     name, version, _ = parts
-    version = unquote(version)
+    version = urllib.parse.unquote(version)
     if name in pkgs and version_compare(pkgs[name]["version"], version) > 0:
         return
     pkgs[name] = dict(version=version, filename=filename)
index e53efd9..8b14ff9 100644 (file)
@@ -1,6 +1,6 @@
 import struct
 
-class ArReader(object):
+class ArReader:
     """Streaming AR file reader. After constructing an object, you usually
     call read_magic once. Then you call read_entry in a loop and use the
     ArReader object as file-like only providing read() to read the respective
index 8d1912b..161eda2 100644 (file)
@@ -1,13 +1,10 @@
 import bz2
 import struct
-import sys
 import zlib
 
 import lzma
 
-crc32_type = "L" if sys.version_info.major >= 3 else "l"
-
-class GzipDecompressor(object):
+class GzipDecompressor:
     """An interface to gzip which is similar to bz2.BZ2Decompressor and
     lzma.LZMADecompressor."""
     def __init__(self):
@@ -66,7 +63,7 @@ class GzipDecompressor(object):
         elif not self.sawheader:
             return self.inbuffer
         else:
-            expect = struct.pack("<" + crc32_type + "L", self.crc, self.size)
+            expect = struct.pack("<LL", self.crc, self.size)
             if self.inbuffer.startswith(expect) and \
                     self.inbuffer[len(expect):].replace(b"\0", b"") == b"":
                 return b""
@@ -90,7 +87,7 @@ class GzipDecompressor(object):
         new.size = self.size
         return new
 
-class DecompressedStream(object):
+class DecompressedStream:
     """Turn a readable file-like into a decompressed file-like. It supports
     read(optional length), tell, seek(forward only) and close."""
     blocksize = 65536
@@ -173,10 +170,10 @@ class DecompressedStream(object):
             self.closed = True
 
 decompressors = {
-    u'.gz':   GzipDecompressor,
-    u'.bz2':  bz2.BZ2Decompressor,
-    u'.lzma': lzma.LZMADecompressor,
-    u'.xz':   lzma.LZMADecompressor,
+    '.gz':   GzipDecompressor,
+    '.bz2':  bz2.BZ2Decompressor,
+    '.lzma': lzma.LZMADecompressor,
+    '.xz':   lzma.LZMADecompressor,
 }
 
 def decompress(filelike, extension):
index 3a30b3e..38086ec 100644 (file)
@@ -1,4 +1,3 @@
-import sys
 import tarfile
 
 from debian import deb822
@@ -7,7 +6,7 @@ from dedup.arreader import ArReader
 from dedup.compression import decompress
 from dedup.hashing import hash_file
 
-class MultiHash(object):
+class MultiHash:
     def __init__(self, *hashes):
         self.hashes = hashes
 
@@ -38,32 +37,11 @@ def get_tar_hashes(tar, hash_functions):
                 hashes[hashobj.name] = hashvalue
         yield (elem.name, elem.size, hashes)
 
-if sys.version_info.major >= 3:
-    def opentar(filelike):
-        return tarfile.open(fileobj=filelike, mode="r|", encoding="utf8",
-                            errors="surrogateescape")
+def opentar(filelike):
+    return tarfile.open(fileobj=filelike, mode="r|", encoding="utf8",
+                        errors="surrogateescape")
 
-    def decodetarname(name):
-        """Decoded name of a tarinfo.
-        @raises UnicodeDecodeError:
-        """
-        try:
-            name.encode("utf8", "strict")
-        except UnicodeEncodeError as e:
-            if e.reason == "surrogates not allowed":
-                name.encode("utf8", "surrogateescape").decode("utf8", "strict")
-        return name
-else:
-    def opentar(filelike):
-        return tarfile.open(fileobj=filelike, mode="r|")
-
-    def decodetarname(name):
-        """Decoded name of a tarinfo.
-        @raises UnicodeDecodeError:
-        """
-        return name.decode("utf8")
-
-class DebExtractor(object):
+class DebExtractor:
     "Base class for extracting desired features from a Debian package."
 
     def __init__(self):
index c5a6357..b71c276 100644 (file)
@@ -9,7 +9,7 @@ try:
 except AttributeError:
     _magic_identify = magic.none_magic.buffer
 
-class FileDigester(object):
+class FileDigester:
     """A hashlib-like class to guess a filetype using the magic module."""
     FILE_BYTES_MAX = 1024 * 1024 # copied from file source
 
index c91fb64..21f14ea 100644 (file)
@@ -1,10 +1,6 @@
 import itertools
-try:
-    from itertools import imap as map
-except ImportError:
-    pass # in python3 map is already imap
 
-class HashBlacklist(object):
+class HashBlacklist:
     """Turn a hashlib-like object into a hash that returns None for some
     blacklisted hashes instead of the real hash value.
 
@@ -35,7 +31,7 @@ class HashBlacklist(object):
     def copy(self):
         return HashBlacklist(self.hashobj.copy(), self.blacklist)
 
-class HashBlacklistContent(object):
+class HashBlacklistContent:
     """Turn a hashlib-like object into a hash that returns None for some
     blacklisted content instead of the real hash value. Unlike HashBlacklist,
     not the output of the hash is considered, but its input."""
@@ -85,7 +81,7 @@ class HashBlacklistContent(object):
         new.stored = self.stored
         return new
 
-class DecompressedHash(object):
+class DecompressedHash:
     """Apply a decompression function before the hash. This class provides the
     hashlib interface (update, hexdigest, copy) excluding digest and name."""
     def __init__(self, decompressor, hashobj):
@@ -119,7 +115,7 @@ class DecompressedHash(object):
     def copy(self):
         return DecompressedHash(self.decompressor.copy(), self.hashobj.copy())
 
-class SuppressingHash(object):
+class SuppressingHash:
     """A hash that silences exceptions from the update and hexdigest methods of
     a hashlib-like object. If an exception has occurred, hexdigest always
     returns None."""
@@ -167,7 +163,7 @@ def hash_file(hashobj, filelike, blocksize=65536):
         data = filelike.read(blocksize)
     return hashobj
 
-class HashedStream(object):
+class HashedStream:
     """A file-like object, that supports sequential reading and hashes the
     contents on the fly."""
     def __init__(self, filelike, hashobj):
index 314eb44..2e64e6b 100644 (file)
@@ -3,7 +3,7 @@ import struct
 
 import PIL.Image
 
-class ImageHash(object):
+class ImageHash:
     """A hash on the contents of an image data type supported by PIL. This
     disregards mode, depth and meta information. Note that due to limitations
     in PIL and the image format (interlacing) the full contents are stored and
index dab6653..46f8e64 100644 (file)
@@ -1,12 +1,6 @@
 import errno
-try:
-    from urllib.error import URLError, HTTPError
-except ImportError:
-    from urllib2 import URLError, HTTPError
-try:
-    from urllib.request import urlopen
-except ImportError:
-    from urllib2 import urlopen
+import urllib.error
+import urllib.request
 
 from debian.debian_support import version_compare
 
@@ -15,15 +9,14 @@ from dedup.compression import decompress
 def fetchiter(cursor):
     rows = cursor.fetchmany()
     while rows:
-        for row in rows:
-            yield row
+        yield from rows
         rows = cursor.fetchmany()
 
 def sql_add_version_compare(db):
     db.create_collation("debian_version", version_compare)
     db.create_function("debian_version_compare", 2, version_compare)
 
-def open_compressed_mirror_url(url, extensions=(u".xz", u".gz", u"")):
+def open_compressed_mirror_url(url, extensions=(".xz", ".gz", "")):
     """Fetch the given url. Try appending each of the given compression
     schemes and move on in case it doesn't exist. Decompress the resulting
     stream on the fly.
@@ -31,11 +24,11 @@ def open_compressed_mirror_url(url, extensions=(u".xz", u".gz", u"")):
     """
     for ext in extensions:
         try:
-            handle = urlopen(url + ext)
-        except HTTPError as error:
+            handle = urllib.request.urlopen(url + ext)
+        except urllib.error.HTTPError as error:
             if error.code != 404:
                 raise
-        except URLError as error:
+        except urllib.error.URLError as error:
             if not hasattr(error.reason, "errno"):
                 raise
             if error.reason.errno != errno.ENOENT:
index ce4a446..4693401 100755 (executable)
@@ -1,4 +1,4 @@
-#!/usr/bin/python
+#!/usr/bin/python3
 """This tool reads a Debian package from stdin and emits a yaml stream on
 stdout.  It does not access a database. Therefore it can be run in parallel and
 on multiple machines. The generated yaml contains multiple documents. The first
@@ -8,15 +8,12 @@ And finally a document consisting of the string "commit" is emitted."""
 import argparse
 import hashlib
 import sys
+import urllib.request
 import zlib
-try:
-    from urllib.request import urlopen
-except ImportError:
-    from urllib2 import urlopen
 
 import yaml
 
-from dedup.debpkg import DebExtractor, decodetarname, get_tar_hashes
+from dedup.debpkg import DebExtractor, get_tar_hashes
 from dedup.hashing import DecompressedHash, SuppressingHash, HashedStream, \
         HashBlacklistContent
 from dedup.compression import GzipDecompressor
@@ -63,7 +60,7 @@ class ImportpkgExtractor(DebExtractor):
         # deb822 currently returns :any dependencies raw. see #670679
         deprelations = info.relations.get("depends", []) + \
                        info.relations.get("pre-depends", [])
-        depends = set(dep[0]["name"].split(u':', 1)[0]
+        depends = set(dep[0]["name"].split(':', 1)[0]
                       for dep in deprelations if len(dep) == 1)
         self.callback(dict(package=info["package"], source=source,
                            version=info["version"],
@@ -73,22 +70,19 @@ class ImportpkgExtractor(DebExtractor):
         for name, size, hashes in get_tar_hashes(tarfileobj,
                                                  self.hash_functions):
             try:
-                name = decodetarname(name)
-            except UnicodeDecodeError:
+                name.encode("utf8", "strict")
+            except UnicodeEncodeError:
                 print("warning: skipping filename with encoding error")
                 continue # skip files with non-utf8 encoding for now
             self.callback(dict(name=name, size=size, hashes=hashes))
         raise ProcessingFinished()
 
 def main():
-    try:
-        stdin = sys.stdin.buffer
-    except AttributeError: # python2
-        stdin = sys.stdin
     parser = argparse.ArgumentParser()
     parser.add_argument("-H", "--hash", action="store",
                         help="verify that stdin hash given sha256 hash")
-    parser.add_argument("input", nargs='?', default=stdin, type=urlopen,
+    parser.add_argument("input", nargs='?', default=sys.stdin.buffer,
+                        type=urllib.request.urlopen,
                         help="read from this location instead of stdin")
     args = parser.parse_args()
     dumper = yaml.SafeDumper(sys.stdout)
index b6f7316..a4837cf 100755 (executable)
@@ -1,4 +1,4 @@
-#!/usr/bin/python
+#!/usr/bin/python3
 """This tool reads a yaml file as generated by importpkg.py on stdin and
 updates the database with the contents."""
 
index ac6c945..78e6171 100755 (executable)
@@ -1,4 +1,4 @@
-#!/usr/bin/python
+#!/usr/bin/python3
 
 import argparse
 import sqlite3
index f9e667e..69e9df8 100755 (executable)
--- a/webapp.py
+++ b/webapp.py
@@ -1,4 +1,4 @@
-#!/usr/bin/python
+#!/usr/bin/python3
 
 import argparse
 import contextlib
@@ -68,7 +68,7 @@ class InternalRedirect(Exception):
         self.target = target
         self.code = code
 
-class Application(object):
+class Application:
     def __init__(self, db):
         self.db = db
         self.routingmap = Map([