Jadual Kandungan
Apakah itu penggunaan model?
Sediakan perkhidmatan TensorFlow
Langkah 1: Pasang TensorFlow Serving
Langkah 2: Mulakan pelayan perkhidmatan TensorFlow
Bersedia untuk menggunakan model
Simpan model dalam format SavedModel
Tentukan tandatangan model
Simpan model dengan tandatangan
Gunakan TensorFlow Serving untuk melayani model
Sambung dengan TensorFlow Serving
Buat permintaan
Hantar permintaan dan dapatkan jawapan
Uji model yang digunakan
Sediakan data sampel
Hantar permintaan kepada model yang digunakan
Nilai keluaran
Menskala dan mengawasi penempatan
Zum
Memantau
Contoh
Keluaran yang diingini
Kesimpulan
Rumah pembangunan bahagian belakang Tutorial Python Bagaimana untuk menggunakan model dalam Python menggunakan TensorFlow Serving?

Bagaimana untuk menggunakan model dalam Python menggunakan TensorFlow Serving?

Sep 07, 2023 pm 11:09 PM

如何使用TensorFlow Serving在Python中部署模型?

Menggunakan model pembelajaran mesin adalah penting untuk menjadikan aplikasi kecerdasan buatan berfungsi, dan untuk menyediakan model dengan berkesan dalam persekitaran pengeluaran, TensorFlow Serving menyediakan penyelesaian yang boleh dipercayai. Apabila model dilatih dan bersedia untuk digunakan, adalah penting untuk menyampaikannya dengan cekap untuk mengendalikan permintaan masa nyata. TensorFlow Serving ialah alat berkuasa yang membantu menggunakan model pembelajaran mesin dengan lancar dalam persekitaran pengeluaran.

Dalam artikel ini, kami akan menyelami langkah-langkah yang terlibat dalam menggunakan model dalam Python menggunakan TensorFlow Serving.

Apakah itu penggunaan model?

Penempatan model melibatkan penyediaan model pembelajaran mesin terlatih untuk ramalan masa nyata. Ini bermakna memindahkan model daripada persekitaran pembangunan kepada sistem pengeluaran yang boleh mengendalikan permintaan masuk dengan cekap. TensorFlow Serving ialah sistem yang dibina khas dan berprestasi tinggi yang direka untuk menggunakan model pembelajaran mesin.

Sediakan perkhidmatan TensorFlow

Pertama, kami perlu memasang TensorFlow Serving pada sistem kami. Sila ikut langkah di bawah untuk menyediakan TensorFlow Serving -

Langkah 1: Pasang TensorFlow Serving

Mula-mula pasang TensorFlow Serving menggunakan pip pengurus pakej. Buka command prompt atau terminal dan masukkan arahan berikut -

pip install tensorflow-serving-api
Salin selepas log masuk

Langkah 2: Mulakan pelayan perkhidmatan TensorFlow

Selepas pemasangan, mulakan pelayan TensorFlow Serving dengan menjalankan arahan berikut -

tensorflow_model_server --rest_api_port=8501 --model_name=my_model --model_base_path=/path/to/model/directory
Salin selepas log masuk

Ganti `/path/to/model/directory` dengan laluan di mana model terlatih disimpan.

Bersedia untuk menggunakan model

Sebelum menggunakan model, ia perlu disimpan dalam format yang boleh difahami oleh TensorFlow Serving. Ikut langkah ini untuk menyediakan model anda untuk penggunaan -

Simpan model dalam format SavedModel

Dalam skrip Python, gunakan kod berikut untuk menyimpan model terlatih ke dalam format SavedModel -

import tensorflow as tf

# Assuming `model` is your trained TensorFlow model
tf.saved_model.save(model, '/path/to/model/directory')
Salin selepas log masuk

Tentukan tandatangan model

Tandatangan model memberikan maklumat tentang tensor input dan output model. Gunakan fungsi `tf.saved_model.signature_def_utils.build_signature_def` untuk mentakrifkan tandatangan model. Ini adalah contoh -

inputs = {'input': tf.saved_model.utils.build_tensor_info(model.input)}
outputs = {'output': tf.saved_model.utils.build_tensor_info(model.output)}

signature = tf.saved_model.signature_def_utils.build_signature_def(
   inputs=inputs,
   outputs=outputs,
   method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME
)
Salin selepas log masuk

Simpan model dengan tandatangan

Untuk menyimpan model bersama tandatangan, gunakan kod berikut -

builder = tf.saved_model.builder.SavedModelBuilder('/path/to/model/directory')
builder.add_meta_graph_and_variables(
   sess=tf.keras.backend.get_session(),
   tags=[tf.saved_model.tag_constants.SERVING],
   signature_def_map={
      tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY: signature
   }
)
builder.save

()
Salin selepas log masuk

Gunakan TensorFlow Serving untuk melayani model

Sekarang model kami sudah sedia, tiba masanya untuk menyajikannya menggunakan TensorFlow Serving. Sila ikut langkah di bawah -

Sambung dengan TensorFlow Serving

Dalam skrip Python, gunakan protokol gRPC untuk mewujudkan sambungan dengan TensorFlow Serving. Ini adalah contoh -

from tensorflow_serving.apis import predict_pb2
from tensorflow_serving.apis import prediction_service_pb2_grpc

channel = grpc.insecure_channel('localhost:8501')
stub = prediction_service_pb2_grpc.PredictionServiceStub(channel)
Salin selepas log masuk

Buat permintaan

Untuk membuat ramalan, cipta mesej protobuf permintaan dan nyatakan nama model dan nama tandatangan. Ini adalah contoh -

request = predict_pb2.PredictRequest()
request.model_spec.name = 'my_model'
request.model_spec.signature_name = tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY
request.inputs['input'].CopyFrom(tf.contrib.util.make_tensor_proto(data, shape=data.shape))
Salin selepas log masuk
Salin selepas log masuk

Ganti `data` dengan data input yang anda ingin ramalkan.

Hantar permintaan dan dapatkan jawapan

Hantar permintaan kepada TensorFlow Serving dan dapatkan respons. Ini adalah contoh -

response = stub.Predict(request, timeout_seconds)
output = tf.contrib.util.make_ndarray(response.outputs['output'])
Salin selepas log masuk
Parameter

`timeout_seconds` menentukan masa maksimum untuk menunggu respons.

Uji model yang digunakan

Untuk memastikan model yang digunakan berfungsi dengan baik, ia mesti diuji dengan input sampel. Berikut ialah cara untuk menguji model yang digunakan -

Sediakan data sampel

Buat satu set data input sampel yang sepadan dengan format input yang dijangkakan model.

Hantar permintaan kepada model yang digunakan

Buat dan hantar permintaan kepada model yang digunakan.

request = predict_pb2.PredictRequest()
request.model_spec.name = 'my_model'
request.model_spec.signature_name = tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY
request.inputs['input'].CopyFrom(tf.contrib.util.make_tensor_proto(data, shape=data.shape))
Salin selepas log masuk
Salin selepas log masuk

Nilai keluaran

Bandingkan output yang diterima daripada model yang digunakan dengan output yang dijangkakan. Langkah ini memastikan model membuat ramalan yang tepat.

Menskala dan mengawasi penempatan

Apabila permintaan ramalan meningkat, adalah penting untuk menskalakan penggunaan anda untuk mengendalikan jumlah permintaan masuk yang besar. Selain itu, penggunaan pemantauan membantu menjejak prestasi dan kesihatan model yang digunakan. Pertimbangkan untuk melaksanakan strategi penskalaan dan pemantauan berikut -

Zum

  • Gunakan berbilang contoh TensorFlow Serving untuk pengimbangan beban.

  • Simpan menggunakan platform seperti Docker dan Kubernetes.

Memantau

  • Kumpul metrik seperti kependaman permintaan, kadar ralat dan daya pemprosesan.

  • Tetapkan makluman dan pemberitahuan untuk peristiwa kritikal.

Contoh

Contoh program di bawah menunjukkan cara menggunakan model menggunakan sajian TensorFlow -

import tensorflow as tf
from tensorflow import keras

# Load the trained model
model = keras.models.load_model("/path/to/your/trained/model")

# Convert the model to the TensorFlow SavedModel format
export_path = "/path/to/exported/model"
tf.saved_model.save(model, export_path)

# Start the TensorFlow Serving server
import os
os.system("tensorflow_model_server --port=8501 --model_name=your_model --model_base_path={}".format(export_path))
Salin selepas log masuk

Dalam contoh di atas, anda perlu menggantikan "/path/to/your/trained/model" dengan laluan sebenar ke model terlatih. Model akan dimuatkan menggunakan fungsi load_model() Keras.

Seterusnya, model akan ditukar kepada format TensorFlow SavedModel dan disimpan dalam laluan eksport yang ditentukan.

Kemudian gunakan fungsi os.system() untuk memulakan pelayan TensorFlow Serving, yang melaksanakan perintah tensorflow_model_server. Perintah ini menentukan port pelayan, nama model (model_anda) dan laluan asas di mana model yang dieksport berada.

Sila pastikan anda telah memasang TensorFlow Serving dan gantikan laluan fail dengan nilai yang sesuai untuk sistem anda.

Keluaran yang diingini

Selepas pelayan bermula dengan jayanya, ia akan bersedia untuk menyediakan perkhidmatan ramalan. Anda boleh menggunakan program atau API lain untuk menghantar permintaan ramalan kepada pelayan dan pelayan akan bertindak balas dengan output ramalan berdasarkan model yang dimuatkan.

Kesimpulan

Ringkasnya, adalah penting untuk menggunakan model pembelajaran mesin dalam persekitaran pengeluaran untuk memanfaatkan keupayaan ramalan mereka. Dalam artikel ini, kami meneroka proses menggunakan model dalam Python menggunakan TensorFlow Serving. Kami berbincang untuk memasang TensorFlow Serving, bersiap sedia untuk menggunakan model, menyediakan model dan menguji prestasinya. Dengan langkah berikut, kami boleh menggunakan model TensorFlow dengan jayanya dan membuat ramalan masa nyata yang tepat.

Atas ialah kandungan terperinci Bagaimana untuk menggunakan model dalam Python menggunakan TensorFlow Serving?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Akan R.E.P.O. Ada Crossplay?
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Bagaimana untuk menyelesaikan masalah kebenaran yang dihadapi semasa melihat versi Python di Terminal Linux? Bagaimana untuk menyelesaikan masalah kebenaran yang dihadapi semasa melihat versi Python di Terminal Linux? Apr 01, 2025 pm 05:09 PM

Penyelesaian kepada Isu Kebenaran Semasa Melihat Versi Python di Terminal Linux Apabila anda cuba melihat versi Python di Terminal Linux, masukkan Python ...

Bagaimana cara menyalin seluruh lajur satu data ke dalam data data lain dengan struktur yang berbeza di Python? Bagaimana cara menyalin seluruh lajur satu data ke dalam data data lain dengan struktur yang berbeza di Python? Apr 01, 2025 pm 11:15 PM

Apabila menggunakan Perpustakaan Pandas Python, bagaimana untuk menyalin seluruh lajur antara dua data data dengan struktur yang berbeza adalah masalah biasa. Katakan kita mempunyai dua DAT ...

Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam Kaedah Projek dan Masalah Dikemukakan Dalam masa 10 Jam? Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam Kaedah Projek dan Masalah Dikemukakan Dalam masa 10 Jam? Apr 02, 2025 am 07:18 AM

Bagaimana Mengajar Asas Pengaturcaraan Pemula Komputer Dalam masa 10 jam? Sekiranya anda hanya mempunyai 10 jam untuk mengajar pemula komputer beberapa pengetahuan pengaturcaraan, apa yang akan anda pilih untuk mengajar ...

Bagaimana untuk mengelakkan dikesan oleh penyemak imbas apabila menggunakan fiddler di mana-mana untuk membaca lelaki-dalam-tengah? Bagaimana untuk mengelakkan dikesan oleh penyemak imbas apabila menggunakan fiddler di mana-mana untuk membaca lelaki-dalam-tengah? Apr 02, 2025 am 07:15 AM

Cara mengelakkan dikesan semasa menggunakan fiddlerevery di mana untuk bacaan lelaki-dalam-pertengahan apabila anda menggunakan fiddlerevery di mana ...

Apakah ungkapan biasa? Apakah ungkapan biasa? Mar 20, 2025 pm 06:25 PM

Ekspresi biasa adalah alat yang berkuasa untuk memadankan corak dan manipulasi teks dalam pengaturcaraan, meningkatkan kecekapan dalam pemprosesan teks merentasi pelbagai aplikasi.

Bagaimanakah uvicorn terus mendengar permintaan http tanpa serving_forever ()? Bagaimanakah uvicorn terus mendengar permintaan http tanpa serving_forever ()? Apr 01, 2025 pm 10:51 PM

Bagaimanakah Uvicorn terus mendengar permintaan HTTP? Uvicorn adalah pelayan web ringan berdasarkan ASGI. Salah satu fungsi terasnya ialah mendengar permintaan HTTP dan teruskan ...

Apakah beberapa perpustakaan Python yang popular dan kegunaan mereka? Apakah beberapa perpustakaan Python yang popular dan kegunaan mereka? Mar 21, 2025 pm 06:46 PM

Artikel ini membincangkan perpustakaan Python yang popular seperti Numpy, Pandas, Matplotlib, Scikit-Learn, Tensorflow, Django, Flask, dan Permintaan, memperincikan kegunaan mereka dalam pengkomputeran saintifik, analisis data, visualisasi, pembelajaran mesin, pembangunan web, dan h

Bagaimana secara dinamik membuat objek melalui rentetan dan panggil kaedahnya dalam Python? Bagaimana secara dinamik membuat objek melalui rentetan dan panggil kaedahnya dalam Python? Apr 01, 2025 pm 11:18 PM

Di Python, bagaimana untuk membuat objek secara dinamik melalui rentetan dan panggil kaedahnya? Ini adalah keperluan pengaturcaraan yang biasa, terutamanya jika perlu dikonfigurasikan atau dijalankan ...

See all articles