Jadual Kandungan
Mengoptimumkan Masa Respons JSON untuk Set Data Besar dalam FastAPI
Rumah pembangunan bahagian belakang Tutorial Python Bagaimana untuk Mengoptimumkan Masa Respons JSON untuk Set Data Besar dalam FastAPI?

Bagaimana untuk Mengoptimumkan Masa Respons JSON untuk Set Data Besar dalam FastAPI?

Oct 18, 2024 pm 11:02 PM

How to Optimize JSON Response Times for Large Datasets in FastAPI?

Mengoptimumkan Masa Respons JSON untuk Set Data Besar dalam FastAPI

Isu:

Mengambil sejumlah besar data JSON daripada Titik akhir FastAPI nyata perlahan, memerlukan kira-kira seminit. Data pada mulanya dimuatkan daripada fail parket menggunakan json.loads() dan ditapis sebelum dikembalikan. Mencari pendekatan yang lebih pantas untuk menyampaikan data.

Penyelesaian:

Masa respons yang perlahan berpunca daripada berbilang penukaran JSON dalam fungsi parse_parquet(). FastAPI secara automatik mengekod nilai yang dikembalikan menggunakan jsonable_encoder sebelum mensirikannya dengan json.dumps(), satu proses yang memakan masa. Pengekod JSON luaran seperti orjson atau ujson menawarkan peningkatan kelajuan yang berpotensi.

Walau bagaimanapun, penyelesaian yang paling berkesan adalah untuk mengelakkan penukaran JSON yang tidak diperlukan. Kod berikut menggunakan kelas APIRoute tersuai untuk mendayakan respons JSON terus daripada panda DataFrames:

<code class="python">from fastapi import APIRoute

class TimedRoute(APIRoute):
    # Custom handler for capturing response time
    def get_route_handler(self):
        original_route_handler = super().get_route_handler()
        
        async def custom_route_handler(request):
            before = time.time()
            response = await original_route_handler(request)
            duration = time.time() - before
            response.headers["Response-Time"] = str(duration)
            print(f"route duration: {duration}")
            return response

        return custom_route_handler</code>
Salin selepas log masuk

Kod ini membolehkan anda membandingkan masa respons kaedah penukaran data yang berbeza. Menggunakan fail parket sampel dengan 160,000 baris dan 45 lajur, keputusan berikut diperoleh:

  • Pengekod FastAPI Lalai (json.dumps()): Paling Lambat
  • orjson: Setanding dengan pengekod lalai
  • ujson: Lebih laju sedikit daripada orjson
  • PandasJSON (df.to_json()): Paling ketara lebih pantas

Untuk meningkatkan pengalaman pengguna, pertimbangkan untuk menetapkan pengepala Pelupusan Kandungan dengan parameter lampiran dan nama fail untuk memulakan muat turun dan bukannya memaparkan data dalam penyemak imbas. Pendekatan ini memintas kekangan penyemak imbas dan mempercepatkan proses.

Selain itu, Dask menyediakan pengendalian optimum set data besar, menawarkan alternatif kepada panda. Respons penstriman atau tak segerak juga boleh dipertimbangkan untuk mengelakkan masalah ingatan apabila berurusan dengan volum data yang besar.

Atas ialah kandungan terperinci Bagaimana untuk Mengoptimumkan Masa Respons JSON untuk Set Data Besar dalam FastAPI?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Bagaimana untuk mengelakkan dikesan oleh penyemak imbas apabila menggunakan fiddler di mana-mana untuk membaca lelaki-dalam-tengah? Bagaimana untuk mengelakkan dikesan oleh penyemak imbas apabila menggunakan fiddler di mana-mana untuk membaca lelaki-dalam-tengah? Apr 02, 2025 am 07:15 AM

Cara mengelakkan dikesan semasa menggunakan fiddlerevery di mana untuk bacaan lelaki-dalam-pertengahan apabila anda menggunakan fiddlerevery di mana ...

Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam Kaedah Projek dan Masalah Dikemukakan Dalam masa 10 Jam? Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam Kaedah Projek dan Masalah Dikemukakan Dalam masa 10 Jam? Apr 02, 2025 am 07:18 AM

Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam masa 10 jam? Sekiranya anda hanya mempunyai 10 jam untuk mengajar pemula komputer beberapa pengetahuan pengaturcaraan, apa yang akan anda pilih untuk mengajar ...

Bagaimana untuk mendapatkan data berita yang melangkaui mekanisme anti-crawler Investing.com? Bagaimana untuk mendapatkan data berita yang melangkaui mekanisme anti-crawler Investing.com? Apr 02, 2025 am 07:03 AM

Memahami Strategi Anti-Crawling of Investing.com Ramai orang sering cuba merangkak data berita dari Investing.com (https://cn.investing.com/news/latest-news) ...

Python 3.6 Memuatkan Ralat Fail Pickle ModulenotFoundError: Apa yang perlu saya lakukan jika saya memuatkan fail acar '__builtin__'? Python 3.6 Memuatkan Ralat Fail Pickle ModulenotFoundError: Apa yang perlu saya lakukan jika saya memuatkan fail acar '__builtin__'? Apr 02, 2025 am 06:27 AM

Memuatkan Fail Pickle di Python 3.6 Kesalahan Alam Sekitar: ModulenotFoundError: Nomodulenamed ...

Apakah sebab mengapa fail saluran paip tidak dapat ditulis apabila menggunakan crawler scapy? Apakah sebab mengapa fail saluran paip tidak dapat ditulis apabila menggunakan crawler scapy? Apr 02, 2025 am 06:45 AM

Perbincangan mengenai sebab -sebab mengapa fail saluran paip tidak dapat ditulis apabila menggunakan crawler scapy apabila belajar dan menggunakan crawler scapy untuk penyimpanan data yang berterusan, anda mungkin menghadapi fail saluran paip ...

See all articles