python支持断点续传的多线程下载示例
#! /usr/bin/env python
#coding=utf-8
from __future__ import unicode_literals
from multiprocessing.dummy import Pool as ThreadPool
import threading
import os
import sys
import cPickle
from collections import namedtuple
import urllib2
from urlparse import urlsplit
import time
# global lock
lock = threading.Lock()
# default parameters
defaults = dict(thread_count=10,
buffer_size=10*1024,
block_size=1000*1024)
def progress(percent, width=50):
print "%s %d%%\r" % (('%%-%ds' % width) % (width * percent / 100 * '='), percent),
if percent >= 100:
print
sys.stdout.flush()
def write_data(filepath, data):
with open(filepath, 'wb') as output:
cPickle.dump(data, output)
def read_data(filepath):
with open(filepath, 'rb') as output:
return cPickle.load(output)
FileInfo = namedtuple('FileInfo', 'url name size lastmodified')
def get_file_info(url):
class HeadRequest(urllib2.Request):
def get_method(self):
return "HEAD"
res = urllib2.urlopen(HeadRequest(url))
res.read()
headers = dict(res.headers)
size = int(headers.get('content-length', 0))
lastmodified = headers.get('last-modified', '')
name = None
if headers.has_key('content-disposition'):
name = headers['content-disposition'].split('filename=')[1]
if name[0] == '"' or name[0] == "'":
name = name[1:-1]
else:
name = os.path.basename(urlsplit(url)[2])
return FileInfo(url, name, size, lastmodified)
def download(url, output,
thread_count = defaults['thread_count'],
buffer_size = defaults['buffer_size'],
block_size = defaults['block_size']):
# get latest file info
file_info = get_file_info(url)
# init path
if output is None:
output = file_info.name
workpath = '%s.ing' % output
infopath = '%s.inf' % output
# split file to blocks. every block is a array [start, offset, end],
# then each greenlet download filepart according to a block, and
# update the block' offset.
blocks = []
if os.path.exists(infopath):
# load blocks
_x, blocks = read_data(infopath)
if (_x.url != url or
_x.name != file_info.name or
_x.lastmodified != file_info.lastmodified):
blocks = []
if len(blocks) == 0:
# set blocks
if block_size > file_info.size:
blocks = [[0, 0, file_info.size]]
else:
block_count, remain = divmod(file_info.size, block_size)
blocks = [[i*block_size, i*block_size, (i+1)*block_size-1] for i in range(block_count)]
blocks[-1][-1] += remain
# create new blank workpath
with open(workpath, 'wb') as fobj:
fobj.write('')
print 'Downloading %s' % url
# start monitor
threading.Thread(target=_monitor, args=(infopath, file_info, blocks)).start()
# start downloading
with open(workpath, 'rb+') as fobj:
args = [(url, blocks[i], fobj, buffer_size) for i in range(len(blocks)) if blocks[i][1]
if thread_count > len(args):
thread_count = len(args)
pool = ThreadPool(thread_count)
pool.map(_worker, args)
pool.close()
pool.join()
# rename workpath to output
if os.path.exists(output):
os.remove(output)
os.rename(workpath, output)
# delete infopath
if os.path.exists(infopath):
os.remove(infopath)
assert all([block[1]>=block[2] for block in blocks]) is True
def _worker((url, block, fobj, buffer_size)):
req = urllib2.Request(url)
req.headers['Range'] = 'bytes=%s-%s' % (block[1], block[2])
res = urllib2.urlopen(req)
while 1:
chunk = res.read(buffer_size)
if not chunk:
break
with lock:
fobj.seek(block[1])
fobj.write(chunk)
block[1] += len(chunk)
def _monitor(infopath, file_info, blocks):
while 1:
with lock:
percent = sum([block[1] - block[0] for block in blocks]) * 100 / file_info.size
progress(percent)
if percent >= 100:
break
write_data(infopath, (file_info, blocks))
time.sleep(2)
if __name__ == '__main__':
import argparse
parser = argparse.ArgumentParser(description='Download file by multi-threads.')
parser.add_argument('url', type=str, help='url of the download file')
parser.add_argument('-o', type=str, default=None, dest="output", help='output file')
parser.add_argument('-t', type=int, default=defaults['thread_count'], dest="thread_count", help='thread counts to downloading')
parser.add_argument('-b', type=int, default=defaults['buffer_size'], dest="buffer_size", help='buffer size')
parser.add_argument('-s', type=int, default=defaults['block_size'], dest="block_size", help='block size')
argv = sys.argv[1:]
if len(argv) == 0:
argv = ['https://eyes.nasa.gov/eyesproduct/EYES/os/win']
args = parser.parse_args(argv)
start_time = time.time()
download(args.url, args.output, args.thread_count, args.buffer_size, args.block_size)
print 'times: %ds' % int(time.time()-start_time)

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











C++의 함수 예외 처리는 다중 스레드 환경에서 스레드 안전성과 데이터 무결성을 보장하는 데 특히 중요합니다. try-catch 문을 사용하면 특정 유형의 예외가 발생할 때 이를 포착하고 처리하여 프로그램 충돌이나 데이터 손상을 방지할 수 있습니다.

다중 스레드 환경에서 JUnit을 사용할 때 단일 스레드 테스트와 다중 스레드 테스트라는 두 가지 일반적인 접근 방식이 있습니다. 단일 스레드 테스트는 동시성 문제를 방지하기 위해 기본 스레드에서 실행되는 반면, 다중 스레드 테스트는 작업자 스레드에서 실행되며 공유 리소스가 방해받지 않도록 동기화된 테스트 접근 방식이 필요합니다. 일반적인 사용 사례에는 ConcurrentHashMap을 사용하여 키-값 쌍을 저장하는 것과 같은 다중 스레드로부터 안전한 방법을 테스트하는 것과 동시 스레드를 사용하여 키-값 쌍에 대해 작동하고 그 정확성을 확인하여 다중 스레드 환경에서 JUnit의 애플리케이션을 반영하는 테스트가 포함됩니다. .

Java 기능을 사용하는 동시성 및 멀티스레딩 기술은 다음 단계를 포함하여 애플리케이션 성능을 향상시킬 수 있습니다. 동시성 및 멀티스레딩 개념을 이해합니다. ExecutorService 및 Callable과 같은 Java의 동시성 및 멀티스레딩 라이브러리를 활용합니다. 멀티 스레드 행렬 곱셈과 같은 실습 사례를 통해 실행 시간을 대폭 단축할 수 있습니다. 동시성 및 멀티스레딩을 통해 향상된 애플리케이션 응답 속도와 최적화된 처리 효율성의 이점을 누려보세요.

다중 스레드 환경에서 PHP 함수의 동작은 해당 유형에 따라 다릅니다. 일반 함수: 스레드로부터 안전하며 동시에 실행될 수 있습니다. 전역 변수를 수정하는 함수: 안전하지 않으므로 동기화 메커니즘을 사용해야 합니다. 파일 작업 기능: 안전하지 않으므로 액세스를 조정하려면 동기화 메커니즘을 사용해야 합니다. 데이터베이스 운영 기능: 안전하지 않으므로 충돌을 방지하기 위해 데이터베이스 시스템 메커니즘을 사용해야 합니다.

PHP 멀티스레딩은 독립적으로 실행되는 스레드를 생성하여 하나의 프로세스에서 여러 작업을 동시에 실행하는 것을 의미합니다. PHP에서 Pthreads 확장을 사용하여 멀티스레딩 동작을 시뮬레이션할 수 있습니다. 설치 후 Thread 클래스를 사용하여 스레드를 생성하고 시작할 수 있습니다. 예를 들어, 대량의 데이터를 처리할 경우 데이터를 여러 블록으로 나누어 해당 개수의 스레드를 생성해 동시 처리함으로써 효율성을 높일 수 있다.

뮤텍스는 C++에서 다중 스레드 공유 리소스를 처리하는 데 사용됩니다. std::mutex를 통해 뮤텍스를 만듭니다. mtx.lock()을 사용하여 뮤텍스를 획득하고 공유 리소스에 대한 독점 액세스를 제공합니다. 뮤텍스를 해제하려면 mtx.unlock()을 사용하세요.

다중 스레드 환경에서 C++ 메모리 관리는 데이터 경합, 교착 상태 및 메모리 누수와 같은 문제에 직면합니다. 대책에는 다음이 포함됩니다. 1. 뮤텍스 및 원자 변수와 같은 동기화 메커니즘을 사용합니다. 2. 잠금 없는 데이터 구조를 사용합니다. 3. 스마트 포인터를 사용합니다. 4. (선택 사항) 가비지 수집을 구현합니다.

다중 스레드 프로그램 테스트는 반복 불가능성, 동시성 오류, 교착 상태 및 가시성 부족과 같은 문제에 직면합니다. 전략은 다음과 같습니다. 단위 테스트: 스레드 동작을 확인하기 위해 각 스레드에 대한 단위 테스트를 작성합니다. 멀티스레드 시뮬레이션: 시뮬레이션 프레임워크를 사용하여 스레드 일정을 제어하여 프로그램을 테스트합니다. 데이터 경합 감지: 도구를 사용하여 valgrind와 같은 잠재적인 데이터 경합을 찾습니다. 디버깅: 디버거(예: gdb)를 사용하여 런타임 프로그램 상태를 검사하고 데이터 경합의 원인을 찾습니다.
