


Bagaimana untuk Mengoptimumkan Masa Respons JSON untuk Set Data Besar dalam FastAPI?
Mengoptimumkan Masa Respons JSON untuk Set Data Besar dalam FastAPI
Isu:
Mengambil sejumlah besar data JSON daripada Titik akhir FastAPI nyata perlahan, memerlukan kira-kira seminit. Data pada mulanya dimuatkan daripada fail parket menggunakan json.loads() dan ditapis sebelum dikembalikan. Mencari pendekatan yang lebih pantas untuk menyampaikan data.
Penyelesaian:
Masa respons yang perlahan berpunca daripada berbilang penukaran JSON dalam fungsi parse_parquet(). FastAPI secara automatik mengekod nilai yang dikembalikan menggunakan jsonable_encoder sebelum mensirikannya dengan json.dumps(), satu proses yang memakan masa. Pengekod JSON luaran seperti orjson atau ujson menawarkan peningkatan kelajuan yang berpotensi.
Walau bagaimanapun, penyelesaian yang paling berkesan adalah untuk mengelakkan penukaran JSON yang tidak diperlukan. Kod berikut menggunakan kelas APIRoute tersuai untuk mendayakan respons JSON terus daripada panda DataFrames:
<code class="python">from fastapi import APIRoute class TimedRoute(APIRoute): # Custom handler for capturing response time def get_route_handler(self): original_route_handler = super().get_route_handler() async def custom_route_handler(request): before = time.time() response = await original_route_handler(request) duration = time.time() - before response.headers["Response-Time"] = str(duration) print(f"route duration: {duration}") return response return custom_route_handler</code>
Kod ini membolehkan anda membandingkan masa respons kaedah penukaran data yang berbeza. Menggunakan fail parket sampel dengan 160,000 baris dan 45 lajur, keputusan berikut diperoleh:
- Pengekod FastAPI Lalai (json.dumps()): Paling Lambat
- orjson: Setanding dengan pengekod lalai
- ujson: Lebih laju sedikit daripada orjson
- PandasJSON (df.to_json()): Paling ketara lebih pantas
Untuk meningkatkan pengalaman pengguna, pertimbangkan untuk menetapkan pengepala Pelupusan Kandungan dengan parameter lampiran dan nama fail untuk memulakan muat turun dan bukannya memaparkan data dalam penyemak imbas. Pendekatan ini memintas kekangan penyemak imbas dan mempercepatkan proses.
Selain itu, Dask menyediakan pengendalian optimum set data besar, menawarkan alternatif kepada panda. Respons penstriman atau tak segerak juga boleh dipertimbangkan untuk mengelakkan masalah ingatan apabila berurusan dengan volum data yang besar.
Atas ialah kandungan terperinci Bagaimana untuk Mengoptimumkan Masa Respons JSON untuk Set Data Besar dalam FastAPI?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Cara mengelakkan dikesan semasa menggunakan fiddlerevery di mana untuk bacaan lelaki-dalam-pertengahan apabila anda menggunakan fiddlerevery di mana ...

Fastapi ...

Menggunakan Python di Terminal Linux ...

Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam masa 10 jam? Sekiranya anda hanya mempunyai 10 jam untuk mengajar pemula komputer beberapa pengetahuan pengaturcaraan, apa yang akan anda pilih untuk mengajar ...

Mengenai Pythonasyncio ...

Memahami Strategi Anti-Crawling of Investing.com Ramai orang sering cuba merangkak data berita dari Investing.com (https://cn.investing.com/news/latest-news) ...

Memuatkan Fail Pickle di Python 3.6 Kesalahan Alam Sekitar: ModulenotFoundError: Nomodulenamed ...

Perbincangan mengenai sebab -sebab mengapa fail saluran paip tidak dapat ditulis apabila menggunakan crawler scapy apabila belajar dan menggunakan crawler scapy untuk penyimpanan data yang berterusan, anda mungkin menghadapi fail saluran paip ...
