mirror of
https://github.com/9001/copyparty.git
synced 2025-08-17 09:02:15 -06:00
fuse: add fork based on fuse-python
This commit is contained in:
parent
e0a19108e5
commit
f8a51b68e7
572
bin/copyparty-fuseb.py
Normal file
572
bin/copyparty-fuseb.py
Normal file
|
@ -0,0 +1,572 @@
|
||||||
|
#!/usr/bin/env python3
|
||||||
|
from __future__ import print_function, unicode_literals
|
||||||
|
|
||||||
|
"""copyparty-fuseb: remote copyparty as a local filesystem"""
|
||||||
|
__author__ = "ed <copyparty@ocv.me>"
|
||||||
|
__copyright__ = 2020
|
||||||
|
__license__ = "MIT"
|
||||||
|
__url__ = "https://github.com/9001/copyparty/"
|
||||||
|
|
||||||
|
import re
|
||||||
|
import os
|
||||||
|
import sys
|
||||||
|
import time
|
||||||
|
import stat
|
||||||
|
import errno
|
||||||
|
import struct
|
||||||
|
import threading
|
||||||
|
import http.client # py2: httplib
|
||||||
|
import urllib.parse
|
||||||
|
from datetime import datetime
|
||||||
|
from urllib.parse import quote_from_bytes as quote
|
||||||
|
|
||||||
|
try:
|
||||||
|
import fuse
|
||||||
|
from fuse import Fuse
|
||||||
|
fuse.fuse_python_api = (0, 2)
|
||||||
|
if not hasattr(fuse, '__version__'):
|
||||||
|
raise Exception('your fuse-python is way old')
|
||||||
|
except:
|
||||||
|
print(
|
||||||
|
"\n could not import fuse; these may help:\n python3 -m pip install --user fuse-python\n apt install libfuse\n modprobe fuse"
|
||||||
|
)
|
||||||
|
raise
|
||||||
|
|
||||||
|
|
||||||
|
"""
|
||||||
|
mount a copyparty server (local or remote) as a filesystem
|
||||||
|
|
||||||
|
usage:
|
||||||
|
python ./copyparty-fuseb.py -f -o allow_other,auto_unmount,nonempty,url=http://192.168.1.69:3923 /export/ro
|
||||||
|
|
||||||
|
dependencies:
|
||||||
|
sudo apk add fuse-dev
|
||||||
|
python3 -m pip install --user fuse-python
|
||||||
|
|
||||||
|
fork of copyparty-fuse.py based on fuse-python which
|
||||||
|
appears to be more compliant than fusepy? since this works with samba
|
||||||
|
(probably just my garbage code tbh)
|
||||||
|
"""
|
||||||
|
|
||||||
|
|
||||||
|
def threadless_log(msg):
|
||||||
|
print(msg + "\n", end="")
|
||||||
|
|
||||||
|
|
||||||
|
def boring_log(msg):
|
||||||
|
msg = "\033[36m{:012x}\033[0m {}\n".format(threading.current_thread().ident, msg)
|
||||||
|
print(msg[4:], end="")
|
||||||
|
|
||||||
|
|
||||||
|
def rice_tid():
|
||||||
|
tid = threading.current_thread().ident
|
||||||
|
c = struct.unpack(b"B" * 5, struct.pack(b">Q", tid)[-5:])
|
||||||
|
return "".join("\033[1;37;48;5;{}m{:02x}".format(x, x) for x in c) + "\033[0m"
|
||||||
|
|
||||||
|
|
||||||
|
def fancy_log(msg):
|
||||||
|
print("{} {}\n".format(rice_tid(), msg), end="")
|
||||||
|
|
||||||
|
|
||||||
|
def null_log(msg):
|
||||||
|
pass
|
||||||
|
|
||||||
|
|
||||||
|
info = fancy_log
|
||||||
|
log = fancy_log
|
||||||
|
dbg = fancy_log
|
||||||
|
log = null_log
|
||||||
|
dbg = null_log
|
||||||
|
|
||||||
|
|
||||||
|
def get_tid():
|
||||||
|
return threading.current_thread().ident
|
||||||
|
|
||||||
|
|
||||||
|
def html_dec(txt):
|
||||||
|
return txt.replace('<', '<').replace('>', '>').replace('"', '"').replace('&', '&')
|
||||||
|
|
||||||
|
|
||||||
|
class CacheNode(object):
|
||||||
|
def __init__(self, tag, data):
|
||||||
|
self.tag = tag
|
||||||
|
self.data = data
|
||||||
|
self.ts = time.time()
|
||||||
|
|
||||||
|
|
||||||
|
class Stat(fuse.Stat):
|
||||||
|
def __init__(self):
|
||||||
|
self.st_mode = 0
|
||||||
|
self.st_ino = 0
|
||||||
|
self.st_dev = 0
|
||||||
|
self.st_nlink = 1
|
||||||
|
self.st_uid = 1000
|
||||||
|
self.st_gid = 1000
|
||||||
|
self.st_size = 0
|
||||||
|
self.st_atime = 0
|
||||||
|
self.st_mtime = 0
|
||||||
|
self.st_ctime = 0
|
||||||
|
|
||||||
|
|
||||||
|
class Gateway(object):
|
||||||
|
def __init__(self, base_url):
|
||||||
|
self.base_url = base_url
|
||||||
|
|
||||||
|
ui = urllib.parse.urlparse(base_url)
|
||||||
|
self.web_root = ui.path.strip("/")
|
||||||
|
try:
|
||||||
|
self.web_host, self.web_port = ui.netloc.split(":")
|
||||||
|
self.web_port = int(self.web_port)
|
||||||
|
except:
|
||||||
|
self.web_host = ui.netloc
|
||||||
|
if ui.scheme == "http":
|
||||||
|
self.web_port = 80
|
||||||
|
elif ui.scheme == "https":
|
||||||
|
raise Exception("todo")
|
||||||
|
else:
|
||||||
|
raise Exception("bad url?")
|
||||||
|
|
||||||
|
self.conns = {}
|
||||||
|
|
||||||
|
def quotep(self, path):
|
||||||
|
# TODO: mojibake support
|
||||||
|
path = path.encode("utf-8", "ignore")
|
||||||
|
return quote(path, safe="/")
|
||||||
|
|
||||||
|
def getconn(self, tid=None):
|
||||||
|
tid = tid or get_tid()
|
||||||
|
try:
|
||||||
|
return self.conns[tid]
|
||||||
|
except:
|
||||||
|
info("new conn [{}] [{}]".format(self.web_host, self.web_port))
|
||||||
|
|
||||||
|
conn = http.client.HTTPConnection(self.web_host, self.web_port, timeout=260)
|
||||||
|
|
||||||
|
self.conns[tid] = conn
|
||||||
|
return conn
|
||||||
|
|
||||||
|
def closeconn(self, tid=None):
|
||||||
|
tid = tid or get_tid()
|
||||||
|
try:
|
||||||
|
self.conns[tid].close()
|
||||||
|
del self.conns[tid]
|
||||||
|
except:
|
||||||
|
pass
|
||||||
|
|
||||||
|
def sendreq(self, *args, **kwargs):
|
||||||
|
tid = get_tid()
|
||||||
|
try:
|
||||||
|
c = self.getconn(tid)
|
||||||
|
c.request(*list(args), **kwargs)
|
||||||
|
return c.getresponse()
|
||||||
|
except:
|
||||||
|
self.closeconn(tid)
|
||||||
|
c = self.getconn(tid)
|
||||||
|
c.request(*list(args), **kwargs)
|
||||||
|
return c.getresponse()
|
||||||
|
|
||||||
|
def listdir(self, path):
|
||||||
|
web_path = self.quotep("/" + "/".join([self.web_root, path])) + "?dots"
|
||||||
|
r = self.sendreq("GET", web_path)
|
||||||
|
if r.status != 200:
|
||||||
|
self.closeconn()
|
||||||
|
raise Exception(
|
||||||
|
"http error {} reading dir {} in {}".format(
|
||||||
|
r.status, web_path, rice_tid()
|
||||||
|
)
|
||||||
|
)
|
||||||
|
|
||||||
|
return self.parse_html(r)
|
||||||
|
|
||||||
|
def download_file_range(self, path, ofs1, ofs2):
|
||||||
|
web_path = self.quotep("/" + "/".join([self.web_root, path])) + "?raw"
|
||||||
|
hdr_range = "bytes={}-{}".format(ofs1, ofs2 - 1)
|
||||||
|
log("downloading {}".format(hdr_range))
|
||||||
|
|
||||||
|
r = self.sendreq("GET", web_path, headers={"Range": hdr_range})
|
||||||
|
if r.status != http.client.PARTIAL_CONTENT:
|
||||||
|
self.closeconn()
|
||||||
|
raise Exception(
|
||||||
|
"http error {} reading file {} range {} in {}".format(
|
||||||
|
r.status, web_path, hdr_range, rice_tid()
|
||||||
|
)
|
||||||
|
)
|
||||||
|
|
||||||
|
return r.read()
|
||||||
|
|
||||||
|
def parse_html(self, datasrc):
|
||||||
|
ret = []
|
||||||
|
remainder = b""
|
||||||
|
ptn = re.compile(
|
||||||
|
r"^<tr><td>(-|DIR)</td><td><a [^>]+>([^<]+)</a></td><td>([^<]+)</td><td>([^<]+)</td></tr>$"
|
||||||
|
)
|
||||||
|
|
||||||
|
while True:
|
||||||
|
buf = remainder + datasrc.read(4096)
|
||||||
|
# print('[{}]'.format(buf.decode('utf-8')))
|
||||||
|
if not buf:
|
||||||
|
break
|
||||||
|
|
||||||
|
remainder = b""
|
||||||
|
endpos = buf.rfind(b"\n")
|
||||||
|
if endpos >= 0:
|
||||||
|
remainder = buf[endpos + 1 :]
|
||||||
|
buf = buf[:endpos]
|
||||||
|
|
||||||
|
lines = buf.decode("utf-8").split("\n")
|
||||||
|
for line in lines:
|
||||||
|
m = ptn.match(line)
|
||||||
|
if not m:
|
||||||
|
# print(line)
|
||||||
|
continue
|
||||||
|
|
||||||
|
ftype, fname, fsize, fdate = m.groups()
|
||||||
|
fname = html_dec(fname)
|
||||||
|
ts = datetime.strptime(fdate, "%Y-%m-%d %H:%M:%S").timestamp()
|
||||||
|
sz = int(fsize)
|
||||||
|
if ftype == "-":
|
||||||
|
ret.append([fname, self.stat_file(ts, sz), 0])
|
||||||
|
else:
|
||||||
|
ret.append([fname, self.stat_dir(ts, sz), 0])
|
||||||
|
|
||||||
|
return ret
|
||||||
|
|
||||||
|
def stat_dir(self, ts, sz=4096):
|
||||||
|
ret = Stat()
|
||||||
|
ret.st_mode = stat.S_IFDIR | 0o555
|
||||||
|
ret.st_nlink = 2
|
||||||
|
ret.st_size = sz
|
||||||
|
ret.st_atime = ts
|
||||||
|
ret.st_mtime = ts
|
||||||
|
ret.st_ctime = ts
|
||||||
|
return ret
|
||||||
|
|
||||||
|
def stat_file(self, ts, sz):
|
||||||
|
ret = Stat()
|
||||||
|
ret.st_mode = stat.S_IFREG | 0o444
|
||||||
|
ret.st_size = sz
|
||||||
|
ret.st_atime = ts
|
||||||
|
ret.st_mtime = ts
|
||||||
|
ret.st_ctime = ts
|
||||||
|
return ret
|
||||||
|
|
||||||
|
|
||||||
|
class CPPF(Fuse):
|
||||||
|
def __init__(self, *args, **kwargs):
|
||||||
|
Fuse.__init__(self, *args, **kwargs)
|
||||||
|
|
||||||
|
self.url = None
|
||||||
|
|
||||||
|
self.dircache = []
|
||||||
|
self.dircache_mtx = threading.Lock()
|
||||||
|
|
||||||
|
self.filecache = []
|
||||||
|
self.filecache_mtx = threading.Lock()
|
||||||
|
|
||||||
|
def init2(self):
|
||||||
|
# TODO figure out how python-fuse wanted this to go
|
||||||
|
self.gw = Gateway(self.url) #.decode('utf-8'))
|
||||||
|
info("up")
|
||||||
|
|
||||||
|
def clean_dircache(self):
|
||||||
|
"""not threadsafe"""
|
||||||
|
now = time.time()
|
||||||
|
cutoff = 0
|
||||||
|
for cn in self.dircache:
|
||||||
|
if now - cn.ts > 1:
|
||||||
|
cutoff += 1
|
||||||
|
else:
|
||||||
|
break
|
||||||
|
|
||||||
|
if cutoff > 0:
|
||||||
|
self.dircache = self.dircache[cutoff:]
|
||||||
|
|
||||||
|
def get_cached_dir(self, dirpath):
|
||||||
|
# with self.dircache_mtx:
|
||||||
|
if True:
|
||||||
|
self.clean_dircache()
|
||||||
|
for cn in self.dircache:
|
||||||
|
if cn.tag == dirpath:
|
||||||
|
return cn
|
||||||
|
|
||||||
|
return None
|
||||||
|
|
||||||
|
"""
|
||||||
|
,-------------------------------, g1>=c1, g2<=c2
|
||||||
|
|cache1 cache2| buf[g1-c1:(g1-c1)+(g2-g1)]
|
||||||
|
`-------------------------------'
|
||||||
|
,---------------,
|
||||||
|
|get1 get2|
|
||||||
|
`---------------'
|
||||||
|
__________________________________________________________________________
|
||||||
|
|
||||||
|
,-------------------------------, g2<=c2, (g2>=c1)
|
||||||
|
|cache1 cache2| cdr=buf[:g2-c1]
|
||||||
|
`-------------------------------' dl car; g1-512K:c1
|
||||||
|
,---------------,
|
||||||
|
|get1 get2|
|
||||||
|
`---------------'
|
||||||
|
__________________________________________________________________________
|
||||||
|
|
||||||
|
,-------------------------------, g1>=c1, (g1<=c2)
|
||||||
|
|cache1 cache2| car=buf[c2-g1:]
|
||||||
|
`-------------------------------' dl cdr; c2:c2+1M
|
||||||
|
,---------------,
|
||||||
|
|get1 get2|
|
||||||
|
`---------------'
|
||||||
|
"""
|
||||||
|
|
||||||
|
def get_cached_file(self, path, get1, get2, file_sz):
|
||||||
|
car = None
|
||||||
|
cdr = None
|
||||||
|
ncn = -1
|
||||||
|
# with self.filecache_mtx:
|
||||||
|
if True:
|
||||||
|
dbg("cache request from {} to {}, size {}".format(get1, get2, file_sz))
|
||||||
|
for cn in self.filecache:
|
||||||
|
ncn += 1
|
||||||
|
|
||||||
|
cache_path, cache1 = cn.tag
|
||||||
|
if cache_path != path:
|
||||||
|
continue
|
||||||
|
|
||||||
|
cache2 = cache1 + len(cn.data)
|
||||||
|
if get2 <= cache1 or get1 >= cache2:
|
||||||
|
continue
|
||||||
|
|
||||||
|
if get1 >= cache1 and get2 <= cache2:
|
||||||
|
# keep cache entry alive by moving it to the end
|
||||||
|
self.filecache = (
|
||||||
|
self.filecache[:ncn] + self.filecache[ncn + 1 :] + [cn]
|
||||||
|
)
|
||||||
|
buf_ofs = get1 - cache1
|
||||||
|
buf_end = buf_ofs + (get2 - get1)
|
||||||
|
dbg(
|
||||||
|
"found all ({}, {} to {}, len {}) [{}:{}] = {}".format(
|
||||||
|
ncn,
|
||||||
|
cache1,
|
||||||
|
cache2,
|
||||||
|
len(cn.data),
|
||||||
|
buf_ofs,
|
||||||
|
buf_end,
|
||||||
|
buf_end - buf_ofs,
|
||||||
|
)
|
||||||
|
)
|
||||||
|
return cn.data[buf_ofs:buf_end]
|
||||||
|
|
||||||
|
if get2 < cache2:
|
||||||
|
x = cn.data[: get2 - cache1]
|
||||||
|
if not cdr or len(cdr) < len(x):
|
||||||
|
dbg(
|
||||||
|
"found car ({}, {} to {}, len {}) [:{}-{}] = [:{}] = {}".format(
|
||||||
|
ncn,
|
||||||
|
cache1,
|
||||||
|
cache2,
|
||||||
|
len(cn.data),
|
||||||
|
get2,
|
||||||
|
cache1,
|
||||||
|
get2 - cache1,
|
||||||
|
len(x),
|
||||||
|
)
|
||||||
|
)
|
||||||
|
cdr = x
|
||||||
|
|
||||||
|
continue
|
||||||
|
|
||||||
|
if get1 > cache1:
|
||||||
|
x = cn.data[-(cache2 - get1) :]
|
||||||
|
if not car or len(car) < len(x):
|
||||||
|
dbg(
|
||||||
|
"found cdr ({}, {} to {}, len {}) [-({}-{}):] = [-{}:] = {}".format(
|
||||||
|
ncn,
|
||||||
|
cache1,
|
||||||
|
cache2,
|
||||||
|
len(cn.data),
|
||||||
|
cache2,
|
||||||
|
get1,
|
||||||
|
cache2 - get1,
|
||||||
|
len(x),
|
||||||
|
)
|
||||||
|
)
|
||||||
|
car = x
|
||||||
|
|
||||||
|
continue
|
||||||
|
|
||||||
|
raise Exception("what")
|
||||||
|
|
||||||
|
if car and cdr:
|
||||||
|
dbg("<cache> have both")
|
||||||
|
|
||||||
|
ret = car + cdr
|
||||||
|
if len(ret) == get2 - get1:
|
||||||
|
return ret
|
||||||
|
|
||||||
|
raise Exception("{} + {} != {} - {}".format(len(car), len(cdr), get2, get1))
|
||||||
|
|
||||||
|
elif cdr:
|
||||||
|
h_end = get1 + (get2 - get1) - len(cdr)
|
||||||
|
h_ofs = h_end - 512 * 1024
|
||||||
|
|
||||||
|
if h_ofs < 0:
|
||||||
|
h_ofs = 0
|
||||||
|
|
||||||
|
buf_ofs = (get2 - get1) - len(cdr)
|
||||||
|
|
||||||
|
dbg(
|
||||||
|
"<cache> cdr {}, car {}-{}={} [-{}:]".format(
|
||||||
|
len(cdr), h_ofs, h_end, h_end - h_ofs, buf_ofs
|
||||||
|
)
|
||||||
|
)
|
||||||
|
|
||||||
|
buf = self.gw.download_file_range(path, h_ofs, h_end)
|
||||||
|
ret = buf[-buf_ofs:] + cdr
|
||||||
|
|
||||||
|
elif car:
|
||||||
|
h_ofs = get1 + len(car)
|
||||||
|
h_end = h_ofs + 1024 * 1024
|
||||||
|
|
||||||
|
if h_end > file_sz:
|
||||||
|
h_end = file_sz
|
||||||
|
|
||||||
|
buf_ofs = (get2 - get1) - len(car)
|
||||||
|
|
||||||
|
dbg(
|
||||||
|
"<cache> car {}, cdr {}-{}={} [:{}]".format(
|
||||||
|
len(car), h_ofs, h_end, h_end - h_ofs, buf_ofs
|
||||||
|
)
|
||||||
|
)
|
||||||
|
|
||||||
|
buf = self.gw.download_file_range(path, h_ofs, h_end)
|
||||||
|
ret = car + buf[:buf_ofs]
|
||||||
|
|
||||||
|
else:
|
||||||
|
h_ofs = get1 - 256 * 1024
|
||||||
|
h_end = get2 + 1024 * 1024
|
||||||
|
|
||||||
|
if h_ofs < 0:
|
||||||
|
h_ofs = 0
|
||||||
|
|
||||||
|
if h_end > file_sz:
|
||||||
|
h_end = file_sz
|
||||||
|
|
||||||
|
buf_ofs = get1 - h_ofs
|
||||||
|
buf_end = buf_ofs + get2 - get1
|
||||||
|
|
||||||
|
dbg(
|
||||||
|
"<cache> {}-{}={} [{}:{}]".format(
|
||||||
|
h_ofs, h_end, h_end - h_ofs, buf_ofs, buf_end
|
||||||
|
)
|
||||||
|
)
|
||||||
|
|
||||||
|
buf = self.gw.download_file_range(path, h_ofs, h_end)
|
||||||
|
ret = buf[buf_ofs:buf_end]
|
||||||
|
|
||||||
|
cn = CacheNode([path, h_ofs], buf)
|
||||||
|
# with self.filecache_mtx:
|
||||||
|
if True:
|
||||||
|
if len(self.filecache) > 6:
|
||||||
|
self.filecache = self.filecache[1:] + [cn]
|
||||||
|
else:
|
||||||
|
self.filecache.append(cn)
|
||||||
|
|
||||||
|
return ret
|
||||||
|
|
||||||
|
def _readdir(self, path):
|
||||||
|
path = path.strip("/")
|
||||||
|
log("readdir {}".format(path))
|
||||||
|
|
||||||
|
ret = self.gw.listdir(path)
|
||||||
|
|
||||||
|
# with self.dircache_mtx:
|
||||||
|
if True:
|
||||||
|
cn = CacheNode(path, ret)
|
||||||
|
self.dircache.append(cn)
|
||||||
|
self.clean_dircache()
|
||||||
|
|
||||||
|
return ret
|
||||||
|
|
||||||
|
def readdir(self, path, offset):
|
||||||
|
for e in self._readdir(path)[offset:]:
|
||||||
|
#log("yield [{}]".format(e[0]))
|
||||||
|
yield fuse.Direntry(e[0])
|
||||||
|
|
||||||
|
def open(self, path, flags):
|
||||||
|
if (flags & (os.O_RDONLY | os.O_WRONLY | os.O_RDWR)) != os.O_RDONLY:
|
||||||
|
return -errno.EACCES
|
||||||
|
|
||||||
|
st = self.getattr(path)
|
||||||
|
try:
|
||||||
|
if st.st_nlink > 0:
|
||||||
|
return st
|
||||||
|
except:
|
||||||
|
return st # -int(os.errcode)
|
||||||
|
|
||||||
|
def read(self, path, length, offset, fh=None, *args):
|
||||||
|
if args:
|
||||||
|
log("unexpected args [" + "] [".join(repr(x) for x in args) + "]")
|
||||||
|
raise Exception()
|
||||||
|
|
||||||
|
path = path.strip("/")
|
||||||
|
|
||||||
|
ofs2 = offset + length
|
||||||
|
log("read {} @ {} len {} end {}".format(path, offset, length, ofs2))
|
||||||
|
|
||||||
|
st = self.getattr(path)
|
||||||
|
try:
|
||||||
|
file_sz = st.st_size
|
||||||
|
except:
|
||||||
|
return st # -int(os.errcode)
|
||||||
|
|
||||||
|
if ofs2 > file_sz:
|
||||||
|
ofs2 = file_sz
|
||||||
|
log("truncate to len {} end {}".format(ofs2 - offset, ofs2))
|
||||||
|
|
||||||
|
if file_sz == 0 or offset >= ofs2:
|
||||||
|
return b""
|
||||||
|
|
||||||
|
# toggle cache here i suppose
|
||||||
|
# return self.get_cached_file(path, offset, ofs2, file_sz)
|
||||||
|
return self.gw.download_file_range(path, offset, ofs2)
|
||||||
|
|
||||||
|
def getattr(self, path):
|
||||||
|
log("getattr [{}]".format(path))
|
||||||
|
|
||||||
|
path = path.strip("/")
|
||||||
|
try:
|
||||||
|
dirpath, fname = path.rsplit("/", 1)
|
||||||
|
except:
|
||||||
|
dirpath = ""
|
||||||
|
fname = path
|
||||||
|
|
||||||
|
if not path:
|
||||||
|
ret = self.gw.stat_dir(time.time())
|
||||||
|
log("=root")
|
||||||
|
return ret
|
||||||
|
|
||||||
|
cn = self.get_cached_dir(dirpath)
|
||||||
|
if cn:
|
||||||
|
log("cache ok")
|
||||||
|
dents = cn.data
|
||||||
|
else:
|
||||||
|
log("cache miss")
|
||||||
|
dents = self._readdir(dirpath)
|
||||||
|
|
||||||
|
for cache_name, cache_stat, _ in dents:
|
||||||
|
if cache_name == fname:
|
||||||
|
log("=file")
|
||||||
|
return cache_stat
|
||||||
|
|
||||||
|
log("=404")
|
||||||
|
return -errno.ENOENT
|
||||||
|
|
||||||
|
|
||||||
|
def main():
|
||||||
|
server = CPPF()
|
||||||
|
server.parser.add_option(mountopt="url", metavar="BASE_URL", default='http://127.0.0.1:3923/')
|
||||||
|
server.parse(values=server, errex=1)
|
||||||
|
server.init2()
|
||||||
|
server.main()
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
main()
|
Loading…
Reference in a new issue