Rumah pembangunan bahagian belakang Tutorial Python Percepatkan `shutil.copytree` !

Percepatkan `shutil.copytree` !

Aug 28, 2024 pm 06:32 PM

Speed up `shutil.copytree` !

Bincangkan mempercepatkan shutil.copytree

Tulis di sini

Ini ialah perbincangan tentang , lihat: https://discuss.python.org/t/speed-up-shutil-copytree/62078. Jika anda mempunyai sebarang idea, sila hantar kepada saya!

Latar belakang

shutil ialah moudle yang sangat berguna dalam Python. Anda boleh menemuinya dalam github: https://github.com/python/cpython/blob/master/Lib/shutil.py

shutil.copytree ialah fungsi yang menyalin folder ke folder lain.

Dalam fungsi ini, ia memanggil fungsi _copytree untuk menyalin.

Apa yang _copytree lakukan ?

  1. Mengabaikan fail/direktori yang ditentukan.
  2. Mencipta direktori destinasi.
  3. Menyalin fail atau direktori sambil mengendalikan pautan simbolik.
  4. Mengumpul dan akhirnya menimbulkan ralat yang dihadapi (mis., isu kebenaran).
  5. Mereplikasi metadata direktori sumber kepada direktori destinasi.

Masalah

_copytree kelajuan tidak begitu pantas apabila bilangan fail besar atau saiz fail besar.

Uji di sini:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

import os

import shutil

 

os.mkdir('test')

os.mkdir('test/source')

 

def bench_mark(func, *args):

    import time

    start = time.time()

    func(*args)

    end = time.time()

    print(f'{func.__name__} takes {end - start} seconds')

    return end - start

 

# write in 3000 files

def write_in_5000_files():

    for i in range(5000):

        with open(f'test/source/{i}.txt', 'w') as f:

            f.write('Hello World' + os.urandom(24).hex())

            f.close()

 

bench_mark(write_in_5000_files)

 

def copy():

    shutil.copytree('test/source', 'test/destination')

 

bench_mark(copy)

Salin selepas log masuk

Hasilnya ialah:

tulis_dalam_5000_fail mengambil masa 4.084963083267212 saat
salinan mengambil masa 27.12768316268921 saat

Apa yang saya lakukan

Multithreading

Saya menggunakan multithread untuk mempercepatkan proses penyalinan. Dan saya menamakan semula fungsi _copytree_single_threaded menambah fungsi baharu _copytree_multithreaded. Berikut ialah copytree_multithreaded:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

def _copytree_multithreaded(src, dst, symlinks=False, ignore=None, copy_function=shutil.copy2,

                            ignore_dangling_symlinks=False, dirs_exist_ok=False, max_workers=4):

    """Recursively copy a directory tree using multiple threads."""

    sys.audit("shutil.copytree", src, dst)

 

    # get the entries to copy

    entries = list(os.scandir(src))

 

    # make the pool

    with ThreadPoolExecutor(max_workers=max_workers) as executor:

        # submit the tasks

        futures = [

            executor.submit(_copytree_single_threaded, entries=[entry], src=src, dst=dst,

                            symlinks=symlinks, ignore=ignore, copy_function=copy_function,

                            ignore_dangling_symlinks=ignore_dangling_symlinks,

                            dirs_exist_ok=dirs_exist_ok)

            for entry in entries

        ]

 

        # wait for the tasks

        for future in as_completed(futures):

            try:

                future.result()

            except Exception as e:

                print(f"Failed to copy: {e}")

                raise

Salin selepas log masuk

Saya menambah pertimbangan untuk memilih menggunakan multithread atau tidak.

1

2

3

4

5

6

7

8

9

10

11

12

13

14

if len(entries) >= 100 or sum(os.path.getsize(entry.path) for entry in entries) >= 100*1024*1024:

        # multithreaded version

        return _copytree_multithreaded(src, dst, symlinks=symlinks, ignore=ignore,

                                        copy_function=copy_function,

                                        ignore_dangling_symlinks=ignore_dangling_symlinks,

                                        dirs_exist_ok=dirs_exist_ok)

 

else:

    # single threaded version

    return _copytree_single_threaded(entries=entries, src=src, dst=dst,

                                        symlinks=symlinks, ignore=ignore,

                                        copy_function=copy_function,

                                        ignore_dangling_symlinks=ignore_dangling_symlinks,

                                        dirs_exist_ok=dirs_exist_ok)

Salin selepas log masuk

Ujian

Saya menulis 50000 fail dalam folder sumber. Tanda Aras:

1

2

3

4

5

6

def bench_mark(func, *args):

    import time

    start = time.perf_counter()

    func(*args)

    end = time.perf_counter()

    print(f"{func.__name__} costs {end - start}s")

Salin selepas log masuk

Tulis dalam:

1

2

3

4

5

6

7

8

9

10

import os

os.mkdir("Test")

os.mkdir("Test/source")

 

# write in 50000 files

def write_in_file():

    for i in range(50000):

         with open(f"Test/source/{i}.txt", 'w') as f:

             f.write(f"{i}")

             f.close()

Salin selepas log masuk

Dua membandingkan:

1

2

3

4

5

6

7

def copy1():

    import shutil

    shutil.copytree('test/source', 'test/destination1')

 

def copy2():

    import my_shutil

    my_shutil.copytree('test/source', 'test/destination2')

Salin selepas log masuk
  • "my_shutil" ialah versi shutil saya yang diubah suai.

kos salinan1 173.04780609999943s
kos copy2 155.81321870000102s

copy2 lebih cepat daripada copy1 banyak. Anda boleh berlari banyak kali.

Kelebihan & Kekurangan

Gunakan multithread boleh mempercepatkan proses penyalinan. Tetapi ia akan meningkatkan penggunaan memori. Tetapi kita tidak perlu menulis semula berbilang benang dalam kod.

Async

Terima kasih kepada "Barry Scott". Saya akan mengikut cadangan beliau :

Anda mungkin mendapat peningkatan yang sama untuk kurang overhed dengan menggunakan I/O tak segerak.

Saya menulis kod ini:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

import os

import shutil

import asyncio

from concurrent.futures import ThreadPoolExecutor

import time

 

 

# create directory

def create_target_directory(dst):

    os.makedirs(dst, exist_ok=True)

 

# copy 1 file

async def copy_file_async(src, dst):

    loop = asyncio.get_event_loop()

    await loop.run_in_executor(None, shutil.copy2, src, dst)

 

# copy directory

async def copy_directory_async(src, dst, symlinks=False, ignore=None, dirs_exist_ok=False):

    entries = os.scandir(src)

    create_target_directory(dst)

 

    tasks = []

    for entry in entries:

        src_path = entry.path

        dst_path = os.path.join(dst, entry.name)

 

        if entry.is_dir(follow_symlinks=not symlinks):

            tasks.append(copy_directory_async(src_path, dst_path, symlinks, ignore, dirs_exist_ok))

        else:

            tasks.append(copy_file_async(src_path, dst_path))

 

    await asyncio.gather(*tasks)

# choose copy method

def choose_copy_method(entries, src, dst, **kwargs):

    if len(entries) >= 100 or sum(os.path.getsize(entry.path) for entry in entries) >= 100 * 1024 * 1024:

        # async version

        asyncio.run(copy_directory_async(src, dst, **kwargs))

    else:

        # single thread version

        shutil.copytree(src, dst, **kwargs)

# test function

def bench_mark(func, *args):

    start = time.perf_counter()

    func(*args)

    end = time.perf_counter()

    print(f"{func.__name__} costs {end - start:.2f}s")

 

# write in 50000 files

def write_in_50000_files():

    for i in range(50000):

        with open(f"Test/source/{i}.txt", 'w') as f:

            f.write(f"{i}")

 

def main():

    os.makedirs('Test/source', exist_ok=True)

    write_in_50000_files()

 

    # 单线程复制

    def copy1():

        shutil.copytree('Test/source', 'Test/destination1')

 

    def copy2():

        shutil.copytree('Test/source', 'Test/destination2')

 

    # async

    def copy3():

        entries = list(os.scandir('Test/source'))

        choose_copy_method(entries, 'Test/source', 'Test/destination3')

 

    bench_mark(copy1)

    bench_mark(copy2)

    bench_mark(copy3)

 

    shutil.rmtree('Test')

 

if __name__ == "__main__":

    main()

Salin selepas log masuk

Output:

copy1 berharga 187.21s
copy2 berharga 244.33s
copy3 berharga 111.27s


Anda dapat melihat bahawa versi async adalah lebih pantas daripada versi urutan tunggal. Tetapi versi benang tunggal lebih pantas daripada versi berbilang benang. ( Mungkin persekitaran ujian saya tidak begitu baik, anda boleh mencuba dan menghantar keputusan anda sebagai balasan kepada saya )

Terima kasih Barry Scott !

Kelebihan & Kekurangan

Async ialah pilihan yang baik. Tetapi tiada penyelesaian yang sempurna. Jika anda menemui masalah, anda boleh menghantar saya sebagai balasan.

tamat

Ini adalah kali pertama saya menulis perbincangan di python.org. Jika ada sebarang masalah, sila beritahu saya. Terima kasih.

Github Saya: https://github.com/mengqinyuan
Dev.to Saya: https://dev.to/mengqinyuan

Atas ialah kandungan terperinci Percepatkan `shutil.copytree` !. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
2 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Repo: Cara menghidupkan semula rakan sepasukan
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Cara mendapatkan biji gergasi
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
2 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Repo: Cara menghidupkan semula rakan sepasukan
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Cara mendapatkan biji gergasi
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Tag artikel panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Cara Menggunakan Python untuk Mencari Pengagihan Zipf Fail Teks Cara Menggunakan Python untuk Mencari Pengagihan Zipf Fail Teks Mar 05, 2025 am 09:58 AM

Cara Menggunakan Python untuk Mencari Pengagihan Zipf Fail Teks

Cara memuat turun fail di python Cara memuat turun fail di python Mar 01, 2025 am 10:03 AM

Cara memuat turun fail di python

Bagaimana saya menggunakan sup yang indah untuk menghuraikan html? Bagaimana saya menggunakan sup yang indah untuk menghuraikan html? Mar 10, 2025 pm 06:54 PM

Bagaimana saya menggunakan sup yang indah untuk menghuraikan html?

Penapisan gambar di python Penapisan gambar di python Mar 03, 2025 am 09:44 AM

Penapisan gambar di python

Cara Bekerja Dengan Dokumen PDF Menggunakan Python Cara Bekerja Dengan Dokumen PDF Menggunakan Python Mar 02, 2025 am 09:54 AM

Cara Bekerja Dengan Dokumen PDF Menggunakan Python

Cara Cache Menggunakan Redis dalam Aplikasi Django Cara Cache Menggunakan Redis dalam Aplikasi Django Mar 02, 2025 am 10:10 AM

Cara Cache Menggunakan Redis dalam Aplikasi Django

Memperkenalkan Toolkit Bahasa Alam (NLTK) Memperkenalkan Toolkit Bahasa Alam (NLTK) Mar 01, 2025 am 10:05 AM

Memperkenalkan Toolkit Bahasa Alam (NLTK)

Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch? Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch? Mar 10, 2025 pm 06:52 PM

Bagaimana untuk melakukan pembelajaran mendalam dengan Tensorflow atau Pytorch?

See all articles