Jadual Kandungan
Gambaran Keseluruhan
Rangka Kerja Pembelajaran Dalam
Saluran Paip Inferens Model
Inferens Model
Pengenalan kepada Pipeline
Penggunaan Talian Paip
Penggunaan asas Pipeline
Segmentasi perkataan Cina
Kod Python
Kod PHP
Hasil keluaran juga berbilang objek
Output
Penaakulan batch
inputs =['今天天气不错,适合出去游玩','这本书很好,建议你看看']# 指定batch_size参数来支持批量推理print(word_segmentation(inputs, batch_size=2))# 输出[{'output': ['今天', '天气', '不错', ',', '适合', '出去', '游玩']}, {'output': ['这', '本', '书', '很', '好', ',', '建议', '你', '看看']}]
Salin selepas log masuk
" >
inputs =['今天天气不错,适合出去游玩','这本书很好,建议你看看']# 指定batch_size参数来支持批量推理print(word_segmentation(inputs, batch_size=2))# 输出[{'output': ['今天', '天气', '不错', ',', '适合', '出去', '游玩']}, {'output': ['这', '本', '书', '很', '好', ',', '建议', '你', '看看']}]
Salin selepas log masuk
Nyatakan prapemprosesan dan model untuk inferens
Buat objek model untuk inferens
from modelscope.models import Modelfrom modelscope.pipelines import pipelinemodel = Model.from_pretrained('damo/nlp_structbert_word-segmentation_chinese-base')word_segmentation = pipeline('word-segmentation', model=model)inputs =['开源技术小栈作者是Tinywan,你知道不?','webman这个框架不错,建议你看看']print(word_segmentation(inputs))
Salin selepas log masuk
" >
from modelscope.models import Modelfrom modelscope.pipelines import pipelinemodel = Model.from_pretrained('damo/nlp_structbert_word-segmentation_chinese-base')word_segmentation = pipeline('word-segmentation', model=model)inputs =['开源技术小栈作者是Tinywan,你知道不?','webman这个框架不错,建议你看看']print(word_segmentation(inputs))
Salin selepas log masuk
from modelscope.models import Modelfrom modelscope.pipelines import pipelinefrom modelscope.preprocessors import Preprocessor, TokenClassificationTransformersPreprocessormodel = Model.from_pretrained('damo/nlp_structbert_word-segmentation_chinese-base')tokenizer = Preprocessor.from_pretrained(model.model_dir)# Or call the constructor directly: # tokenizer = TokenClassificationTransformersPreprocessor(model.model_dir)word_segmentation = pipeline('word-segmentation', model=model, preprocessor=tokenizer)inputs =['开源技术小栈作者是Tinywan,你知道不?','webman这个框架不错,建议你看看']print(word_segmentation(inputs))[{'output': ['开源', '技术', '小', '栈', '作者', '是', 'Tinywan', ',', '你', '知道', '不', '?']},{'output': ['webman', '这个', '框架', '不错', ',', '建议', '你', '看看']}]
Salin selepas log masuk
" >
from modelscope.models import Modelfrom modelscope.pipelines import pipelinefrom modelscope.preprocessors import Preprocessor, TokenClassificationTransformersPreprocessormodel = Model.from_pretrained('damo/nlp_structbert_word-segmentation_chinese-base')tokenizer = Preprocessor.from_pretrained(model.model_dir)# Or call the constructor directly: # tokenizer = TokenClassificationTransformersPreprocessor(model.model_dir)word_segmentation = pipeline('word-segmentation', model=model, preprocessor=tokenizer)inputs =['开源技术小栈作者是Tinywan,你知道不?','webman这个框架不错,建议你看看']print(word_segmentation(inputs))[{'output': ['开源', '技术', '小', '栈', '作者', '是', 'Tinywan', ',', '你', '知道', '不', '?']},{'output': ['webman', '这个', '框架', '不错', ',', '建议', '你', '看看']}]
Salin selepas log masuk
人像抠图('portrait-matting')
输入图片
Python 代码
PHP 代码 tinywan-images.php
执行结果
输出图片
Rumah Peranti teknologi AI Rangka kerja pembelajaran mendalam TensorFlow talian paip inferens untuk inferens potongan potret

Rangka kerja pembelajaran mendalam TensorFlow talian paip inferens untuk inferens potongan potret

Mar 26, 2024 pm 01:00 PM
pembelajaran yang mendalam pipeline Pembangunan sekunder pemasangan pip

Gambaran Keseluruhan

Untuk membolehkan pengguna ModelScope menggunakan pelbagai model yang disediakan oleh platform dengan cepat dan mudah, satu set perpustakaan Python berciri penuh disediakan, termasuk pelaksanaan model rasmi ModelScope, serta penggunaan ini. model untuk inferens, Kod finetune yang berkaitan dengan pra-pemprosesan data, pasca-pemprosesan, penilaian kesan dan fungsi lain yang diperlukan untuk tugasan lain, di samping menyediakan API yang ringkas dan mudah digunakan serta contoh penggunaan yang kaya. Dengan menghubungi perpustakaan, pengguna boleh menyelesaikan tugas seperti inferens model, latihan dan penilaian dengan menulis hanya beberapa baris kod Mereka juga boleh melakukan pembangunan sekunder dengan cepat atas dasar ini untuk merealisasikan idea inovatif mereka sendiri.

Model algoritma yang disediakan oleh perpustakaan pada masa ini meliputi lima medan AI utama: imej, pemprosesan bahasa semula jadi, pertuturan, pelbagai mod dan sains, dan berdozen tugasan senario aplikasi Untuk tugasan tertentu, sila rujuk dokumen: Pengenalan kepada tugas.

Rangka Kerja Pembelajaran Dalam

Perpustakaan ModelScope kini menyokong rangka kerja pembelajaran mendalam seperti Pytorch dan Tensorflow Lebih banyak rangka kerja akan dikemas kini dan dikembangkan secara berterusan pada masa hadapan, jadi nantikan! Semua model rasmi boleh digunakan untuk inferens model melalui Perpustakaan ModelScope, dan beberapa model juga boleh menggunakan perpustakaan untuk latihan dan penilaian. Untuk maklumat penggunaan yang lengkap, lihat kad model untuk model yang sepadan.

Saluran Paip Inferens Model

Inferens Model

Dalam pembelajaran mendalam, inferens merujuk kepada proses yang mana model meramalkan data. Apabila ModelScope melakukan inferens, ia menggunakan saluran paip untuk melaksanakan operasi yang diperlukan secara berurutan. Saluran paip biasa biasanya merangkumi tiga langkah: prapemprosesan data, inferens ke hadapan model dan pasca pemprosesan data.

Pengenalan kepada Pipeline

Kaedah pipeline() ialah salah satu kaedah pengguna paling asas dalam rangka kerja ModelScope dan boleh digunakan untuk melaksanakan inferens model dengan pantas dalam pelbagai bidang. Dengan kaedah pipeline(), pengguna boleh melengkapkan inferens model dengan mudah untuk tugasan tertentu dengan hanya satu baris kod. Kaedah

pipeline() ialah salah satu kaedah pengguna paling asas dalam rangka kerja ModelScope dan boleh digunakan untuk melaksanakan inferens model dengan pantas dalam pelbagai bidang. Dengan kaedah pipeline(), pengguna boleh melengkapkan inferens model dengan mudah untuk tugasan tertentu dengan hanya satu baris kod.

Penggunaan Talian Paip

Artikel ini akan memperkenalkan secara ringkas cara menggunakan kaedah saluran paip untuk memuatkan model untuk inferens. Melalui kaedah saluran paip, pengguna boleh dengan mudah menarik model yang diperlukan dari gudang model untuk inferens berdasarkan jenis tugas dan nama model. Kelebihan utama kaedah ini ialah ia mudah digunakan dan boleh melakukan inferens model dengan cepat dan cekap. Kemudahan kaedah saluran paip ialah ia menyediakan cara langsung untuk mendapatkan dan menggunakan model tanpa memerlukan pengguna memahami butiran khusus model, dengan itu menurunkan ambang untuk menggunakan model. Through the pipeline method, users can focus more on solving problems and

  • Environment preparation
  • Important parameters
  • Basic usage of Pipeline
  • Specify preprocessing and model for inference
  • Examples of using pipeline for inference tasks in different scenarios

Penggunaan asas Pipeline

Segmentasi perkataan Cina

Fungsi saluran paip menyokong penetapan nama tugas tertentu, memuatkan model lalai tugas dan mencipta objek saluran paip yang sepadan.

Kod Python

from modelscope.pipelines import pipelineword_segmentation = pipeline('word-segmentation')input_str = '开源技术小栈作者是Tinywan,你知道不?'print(word_segmentation(input_str))
Salin selepas log masuk

Kod PHP

<?php $operator = PyCore::import("operator");$builtins = PyCore::import("builtins");$pipeline = PyCore::import('modelscope.pipelines')->pipeline;$word_segmentation = $pipeline("word-segmentation");$input_str = "开源技术小栈作者是Tinywan,你知道不?";PyCore::print($word_segmentation($input_str));
Salin selepas log masuk

Alat penukaran dalam talian: https://www.swoole.com/py2php/

Hasil keluaran juga berbilang objek

pi
/usr/local/php-8.2.14/bin/php demo.php 2024-03-25 21:41:42,434 - modelscope - INFO - PyTorch version 2.2.1 Found.2024-03-25 21:41:42,434 - modelscope - INFO - Loading ast index from /home/www/.cache/modelscope/ast_indexer2024-03-25 21:41:42,577 - modelscope - INFO - Loading done! Current index file version is 1.13.0, with md5 f54e9d2dceb89a6c989540d66db83a65 and a total number of 972 components indexed2024-03-25 21:41:44,661 - modelscope - WARNING - Model revision not specified, use revision: v1.0.32024-03-25 21:41:44,879 - modelscope - INFO - initiate model from /home/www/.cache/modelscope/hub/damo/nlp_structbert_word-segmentation_chinese-base2024-03-25 21:41:44,879 - modelscope - INFO - initiate model from location /home/www/.cache/modelscope/hub/damo/nlp_structbert_word-segmentation_chinese-base.2024-03-25 21:41:44,880 - modelscope - INFO - initialize model from /home/www/.cache/modelscope/hub/damo/nlp_structbert_word-segmentation_chinese-baseYou are using a model of type bert to instantiate a model of type structbert. This is not supported for all configurations of models and can yield errors.2024-03-25 21:41:48,633 - modelscope - WARNING - No preprocessor field found in cfg.2024-03-25 21:41:48,633 - modelscope - WARNING - No val key and type key found in preprocessor domain of configuration.json file.2024-03-25 21:41:48,633 - modelscope - WARNING - Cannot find available config to build preprocessor at mode inference, current config: {'model_dir': '/home/www/.cache/modelscope/hub/damo/nlp_structbert_word-segmentation_chinese-base'}. trying to build by task and model information.2024-03-25 21:41:48,639 - modelscope - INFO - cuda is not available, using cpu instead.2024-03-25 21:41:48,640 - modelscope - WARNING - No preprocessor field found in cfg.2024-03-25 21:41:48,640 - modelscope - WARNING - No val key and type key found in preprocessor domain of configuration.json file.2024-03-25 21:41:48,640 - modelscope - WARNING - Cannot find available config to build preprocessor at mode inference, current config: {'model_dir': '/home/www/.cache/modelscope/hub/damo/nlp_structbert_word-segmentation_chinese-base', 'sequence_length': 512}. trying to build by task and model information./home/www/anaconda3/envs/tinywan-modelscope/lib/python3.10/site-packages/transformers/modeling_utils.py:962: FutureWarning: The `device` argument is deprecated and will be removed in v5 of Transformers.warnings.warn({'output': ['开源', '技术', '小', '栈', '作者', '是', 'Tinywan', ',', '你', '知道', '不', '?']}
Salin selepas log masuk
s Ia menyokong penghantaran dalam beberapa senarai sampel sebagai input dan mengembalikan senarai output yang sepadan Setiap elemen sepadan dengan hasil pulangan sampel input. Kaedah penaakulan untuk berbilang keping teks ialah data input diproses secara individu menggunakan iterator di dalam saluran paip dan kemudian dilampirkan pada Senarai pulangan yang sama.

Kod Python

from modelscope.pipelines import pipelineword_segmentation = pipeline('word-segmentation')inputs =['开源技术小栈作者是Tinywan,你知道不?','webman这个框架不错,建议你看看']print(word_segmentation(inputs))
Salin selepas log masuk

Kod PHP

<?php $operator = PyCore::import("operator");$builtins = PyCore::import("builtins");$pipeline = PyCore::import('modelscope.pipelines')->pipeline;$word_segmentation = $pipeline("word-segmentation");$inputs = new PyList(["开源技术小栈作者是Tinywan,你知道不?", "webman这个框架不错,建议你看看"]);PyCore::print($word_segmentation($inputs));
Salin selepas log masuk

Output

[{'output': ['开源', '技术', '小', '栈', '作者', '是', 'Tinywan', ',', '你', '知道', '不', '?']},{'output': ['webman', '这个', '框架', '不错', ',', '建议', '你', '看看']}]
Salin selepas log masuk
Salin selepas log masuk

Penaakulan batch

penaakulan saluran paip adalah sama seperti di atas, penaakulan saluran paip adalah serupa dengan "berbilang teks" oleh pengguna Pada skala batch_size, inferens ke hadapan kelompok dilaksanakan dalam proses ke hadapan model.

inputs =['今天天气不错,适合出去游玩','这本书很好,建议你看看']# 指定batch_size参数来支持批量推理print(word_segmentation(inputs, batch_size=2))# 输出[{'output': ['今天', '天气', '不错', ',', '适合', '出去', '游玩']}, {'output': ['这', '本', '书', '很', '好', ',', '建议', '你', '看看']}]
Salin selepas log masuk

Masukkan set data

from modelscope.msdatasets import MsDatasetfrom modelscope.pipelines import pipelineinputs = ['今天天气不错,适合出去游玩', '这本书很好,建议你看看']dataset = MsDataset.load(inputs, target='sentence')word_segmentation = pipeline('word-segmentation')outputs = word_segmentation(dataset)for o in outputs:print(o)# 输出{'output': ['今天', '天气', '不错', ',', '适合', '出去', '游玩']}{'output': ['这', '本', '书', '很', '好', ',', '建议', '你', '看看']}
Salin selepas log masuk

Nyatakan prapemprosesan dan model untuk inferens

Fungsi saluran paip menyokong penghantaran objek prapemprosesan segera dan objek model, dengan itu menyokong pengguna dan menyesuaikan model.

Buat objek model untuk inferens

Kod Python

from modelscope.models import Modelfrom modelscope.pipelines import pipelinemodel = Model.from_pretrained('damo/nlp_structbert_word-segmentation_chinese-base')word_segmentation = pipeline('word-segmentation', model=model)inputs =['开源技术小栈作者是Tinywan,你知道不?','webman这个框架不错,建议你看看']print(word_segmentation(inputs))
Salin selepas log masuk

Kod PHP

<?php $operator = PyCore::import("operator");$builtins = PyCore::import("builtins");$Model = PyCore::import('modelscope.models')->Model;$pipeline = PyCore::import('modelscope.pipelines')->pipeline;$model = $Model->from_pretrained("damo/nlp_structbert_word-segmentation_chinese-base");$word_segmentation = $pipeline("word-segmentation", model: $model);$inputs = new PyList(["开源技术小栈作者是Tinywan,你知道不?", "webman这个框架不错,建议你看看"]);PyCore::print($word_segmentation($inputs));
Salin selepas log masuk

Output

[{'output': ['开源', '技术', '小', '栈', '作者', '是', 'Tinywan', ',', '你', '知道', '不', '?']},{'output': ['webman', '这个', '框架', '不错', ',', '建议', '你', '看看']}]
Salin selepas log masuk
Salin selepas log masuk

from modelscope.models import Modelfrom modelscope.pipelines import pipelinefrom modelscope.preprocessors import Preprocessor, TokenClassificationTransformersPreprocessormodel = Model.from_pretrained('damo/nlp_structbert_word-segmentation_chinese-base')tokenizer = Preprocessor.from_pretrained(model.model_dir)# Or call the constructor directly: # tokenizer = TokenClassificationTransformersPreprocessor(model.model_dir)word_segmentation = pipeline('word-segmentation', model=model, preprocessor=tokenizer)inputs =['开源技术小栈作者是Tinywan,你知道不?','webman这个框架不错,建议你看看']print(word_segmentation(inputs))[{'output': ['开源', '技术', '小', '栈', '作者', '是', 'Tinywan', ',', '你', '知道', '不', '?']},{'output': ['webman', '这个', '框架', '不错', ',', '建议', '你', '看看']}]
Salin selepas log masuk

Kod PHP
pip install opencv-python
Salin selepas log masuk

Output
pip install tensorflow
Salin selepas log masuk
Salin selepas log masuk
orCreee model dan preference

    import cv2from modelscope.pipelines import pipelineportrait_matting = pipeline('portrait-matting')result = portrait_matting('https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_matting.png')cv2.imwrite('result.png', result['output_img'])
    Salin selepas log masuk
    Salin selepas log masuk
  1. Imej
Nota:
🎜 🎜Pastikan anda telah memasang perpustakaan OpenCV. Jika tidak dipasang, anda boleh memasangnya melalui pip🎜🎜🎜
<?php $operator = PyCore::import("operator");$builtins = PyCore::import("builtins");$cv2 = PyCore::import('cv2');$pipeline = PyCore::import('modelscope.pipelines')->pipeline;$portrait_matting = $pipeline("portrait-matting");$result = $portrait_matting("https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_matting.png");$cv2->imwrite("tinywan_result.png", $result->__getitem__("output_img"));
Salin selepas log masuk
Salin selepas log masuk
🎜

没有安装会提示:PHP Fatal error: Uncaught PyError: No module named 'cv2' in /home/www/build/ai/demo3.php:4

  1. 确保你已经安装深度学习框架包TensorFlow库

否则提示modelscope.pipelines.cv.image_matting_pipeline requires the TensorFlow library but it was not found in your environment. Checkout the instructions on the installation page: https://www.tensorflow.org/install and follow the ones that match your environment.。

报错信息表明,你正在尝试使用一个名为 modelscope.pipelines.cv.image_matting_pipeline 的模块,该模块依赖于 TensorFlow 库。然而,该模块无法正常工作,因为缺少必要的 TensorFlow 依赖。

可以使用以下命令安装最新版本的 TensorFlow

pip install tensorflow
Salin selepas log masuk
Salin selepas log masuk

Rangka kerja pembelajaran mendalam TensorFlow talian paip inferens untuk inferens potongan potret图片

人像抠图('portrait-matting')

输入图片

Rangka kerja pembelajaran mendalam TensorFlow talian paip inferens untuk inferens potongan potret图片

Python 代码

import cv2from modelscope.pipelines import pipelineportrait_matting = pipeline('portrait-matting')result = portrait_matting('https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_matting.png')cv2.imwrite('result.png', result['output_img'])
Salin selepas log masuk
Salin selepas log masuk

PHP 代码 tinywan-images.php

<?php $operator = PyCore::import("operator");$builtins = PyCore::import("builtins");$cv2 = PyCore::import('cv2');$pipeline = PyCore::import('modelscope.pipelines')->pipeline;$portrait_matting = $pipeline("portrait-matting");$result = $portrait_matting("https://modelscope.oss-cn-beijing.aliyuncs.com/test/images/image_matting.png");$cv2->imwrite("tinywan_result.png", $result->__getitem__("output_img"));
Salin selepas log masuk
Salin selepas log masuk

加载本地文件图片$result = $portrait_matting("./tinywan.png");

执行结果

/usr/local/php-8.2.14/bin/php tinywan-images.php 2024-03-25 22:17:25,630 - modelscope - INFO - PyTorch version 2.2.1 Found.2024-03-25 22:17:25,631 - modelscope - INFO - TensorFlow version 2.16.1 Found.2024-03-25 22:17:25,631 - modelscope - INFO - Loading ast index from /home/www/.cache/modelscope/ast_indexer2024-03-25 22:17:25,668 - modelscope - INFO - Loading done! Current index file version is 1.13.0, with md5 f54e9d2dceb89a6c989540d66db83a65 and a total number of 972 components indexed2024-03-25 22:17:26,990 - modelscope - WARNING - Model revision not specified, use revision: v1.0.02024-03-25 22:17:27.623085: I tensorflow/core/util/port.cc:113] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.2024-03-25 22:17:27.678592: I tensorflow/core/platform/cpu_feature_guard.cc:210] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.To enable the following instructions: AVX2 AVX512F AVX512_VNNI FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.2024-03-25 22:17:28.551510: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Could not find TensorRT2024-03-25 22:17:29,206 - modelscope - INFO - initiate model from /home/www/.cache/modelscope/hub/damo/cv_unet_image-matting2024-03-25 22:17:29,206 - modelscope - INFO - initiate model from location /home/www/.cache/modelscope/hub/damo/cv_unet_image-matting.2024-03-25 22:17:29,209 - modelscope - WARNING - No preprocessor field found in cfg.2024-03-25 22:17:29,210 - modelscope - WARNING - No val key and type key found in preprocessor domain of configuration.json file.2024-03-25 22:17:29,210 - modelscope - WARNING - Cannot find available config to build preprocessor at mode inference, current config: {'model_dir': '/home/www/.cache/modelscope/hub/damo/cv_unet_image-matting'}. trying to build by task and model information.2024-03-25 22:17:29,210 - modelscope - WARNING - Find task: portrait-matting, model type: None. Insufficient information to build preprocessor, skip building preprocessorWARNING:tensorflow:From /home/www/anaconda3/envs/tinywan-modelscope/lib/python3.10/site-packages/modelscope/utils/device.py:60: is_gpu_available (from tensorflow.python.framework.test_util) is deprecated and will be removed in a future version.Instructions for updating:Use `tf.config.list_physical_devices('GPU')` instead.2024-03-25 22:17:29,213 - modelscope - INFO - loading model from /home/www/.cache/modelscope/hub/damo/cv_unet_image-matting/tf_graph.pbWARNING:tensorflow:From /home/www/anaconda3/envs/tinywan-modelscope/lib/python3.10/site-packages/modelscope/pipelines/cv/image_matting_pipeline.py:45: FastGFile.__init__ (from tensorflow.python.platform.gfile) is deprecated and will be removed in a future version.Instructions for updating:Use tf.gfile.GFile.2024-03-25 22:17:29,745 - modelscope - INFO - load model done
Salin selepas log masuk

输出图片

Rangka kerja pembelajaran mendalam TensorFlow talian paip inferens untuk inferens potongan potret图片

Atas ialah kandungan terperinci Rangka kerja pembelajaran mendalam TensorFlow talian paip inferens untuk inferens potongan potret. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Menyelesaikan masalah pemasangan panda biasa: tafsiran dan penyelesaian kepada ralat pemasangan Menyelesaikan masalah pemasangan panda biasa: tafsiran dan penyelesaian kepada ralat pemasangan Feb 19, 2024 am 09:19 AM

Tutorial pemasangan Pandas: Analisis ralat pemasangan biasa dan penyelesaiannya, contoh kod khusus diperlukan Pengenalan: Pandas ialah alat analisis data yang berkuasa yang digunakan secara meluas dalam pembersihan data, pemprosesan data dan visualisasi data, jadi ia sangat dihormati dalam bidang sains data. Walau bagaimanapun, disebabkan oleh konfigurasi persekitaran dan isu pergantungan, anda mungkin menghadapi beberapa kesukaran dan ralat semasa memasang panda. Artikel ini akan memberi anda tutorial pemasangan panda dan menganalisis beberapa ralat pemasangan biasa serta penyelesaiannya. 1. Pasang panda

Di luar ORB-SLAM3! SL-SLAM: Adegan bertekstur lemah ringan, kegelisahan teruk dan lemah semuanya dikendalikan Di luar ORB-SLAM3! SL-SLAM: Adegan bertekstur lemah ringan, kegelisahan teruk dan lemah semuanya dikendalikan May 30, 2024 am 09:35 AM

Ditulis sebelum ini, hari ini kita membincangkan bagaimana teknologi pembelajaran mendalam boleh meningkatkan prestasi SLAM berasaskan penglihatan (penyetempatan dan pemetaan serentak) dalam persekitaran yang kompleks. Dengan menggabungkan kaedah pengekstrakan ciri dalam dan pemadanan kedalaman, di sini kami memperkenalkan sistem SLAM visual hibrid serba boleh yang direka untuk meningkatkan penyesuaian dalam senario yang mencabar seperti keadaan cahaya malap, pencahayaan dinamik, kawasan bertekstur lemah dan seks yang teruk. Sistem kami menyokong berbilang mod, termasuk konfigurasi monokular, stereo, monokular-inersia dan stereo-inersia lanjutan. Selain itu, ia juga menganalisis cara menggabungkan SLAM visual dengan kaedah pembelajaran mendalam untuk memberi inspirasi kepada penyelidikan lain. Melalui percubaan yang meluas pada set data awam dan data sampel sendiri, kami menunjukkan keunggulan SL-SLAM dari segi ketepatan kedudukan dan keteguhan penjejakan.

7 Alat Talian Perintah Diagnostik dan Pemantauan GPU Linux Teratas 7 Alat Talian Perintah Diagnostik dan Pemantauan GPU Linux Teratas Feb 11, 2024 pm 08:48 PM

Kad video ialah papan litar khas yang digunakan untuk mengawal apa yang dipaparkan pada monitor komputer. Ia juga dipanggil Unit Pemprosesan Grafik (GPU) dan mengira imej dan grafik 3D untuk permainan Linux dan tujuan lain. Mari lihat 7 alat baris arahan pemantauan dan diagnostik GPU Linux teratas untuk menyelesaikan masalah anda. Alat berikut tersedia di Linux untuk tujuan pemantauan dan diagnostik GPU, serta pada sistem pengendalian lain seperti FreeBSD. Hari ini, kebanyakan pengguna Linux dan FreeBSD menggunakan GPU Nvidia, Intel dan AMD. Alat Barisan Perintah Pemantauan dan Diagnostik LinuxGPU Kita boleh menggunakan alatan berikut untuk memantau, mendiagnosis dan memeriksa sistem berasaskan Linux atau *BSD. dapatkan graf

Pemasangan yang cekap: petua dan kiat untuk memasang perpustakaan panda dengan cepat Pemasangan yang cekap: petua dan kiat untuk memasang perpustakaan panda dengan cepat Feb 21, 2024 am 09:45 AM

Pemasangan Cekap: Petua dan kiat untuk memasang pustaka panda dengan pantas, memerlukan contoh kod khusus Gambaran Keseluruhan: Pandas ialah alat pemprosesan dan analisis data yang berkuasa yang sangat popular di kalangan pembangun Python. Walau bagaimanapun, memasang perpustakaan panda kadangkala mungkin menghadapi beberapa cabaran, terutamanya jika keadaan rangkaian kurang baik. Artikel ini akan memperkenalkan beberapa petua dan kiat untuk membantu anda memasang pustaka panda dengan cepat dan memberikan contoh kod khusus. Pasang menggunakan pip: pip ialah pengurus pakej rasmi untuk Python

Fahami dalam satu artikel: kaitan dan perbezaan antara AI, pembelajaran mesin dan pembelajaran mendalam Fahami dalam satu artikel: kaitan dan perbezaan antara AI, pembelajaran mesin dan pembelajaran mendalam Mar 02, 2024 am 11:19 AM

Dalam gelombang perubahan teknologi yang pesat hari ini, Kecerdasan Buatan (AI), Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) adalah seperti bintang terang, menerajui gelombang baharu teknologi maklumat. Ketiga-tiga perkataan ini sering muncul dalam pelbagai perbincangan dan aplikasi praktikal yang canggih, tetapi bagi kebanyakan peneroka yang baru dalam bidang ini, makna khusus dan hubungan dalaman mereka mungkin masih diselubungi misteri. Jadi mari kita lihat gambar ini dahulu. Dapat dilihat bahawa terdapat korelasi rapat dan hubungan progresif antara pembelajaran mendalam, pembelajaran mesin dan kecerdasan buatan. Pembelajaran mendalam ialah bidang khusus pembelajaran mesin dan pembelajaran mesin

Panduan untuk memasang rangka kerja Flask: Langkah terperinci untuk membantu anda memasang Flask dengan betul Panduan untuk memasang rangka kerja Flask: Langkah terperinci untuk membantu anda memasang Flask dengan betul Feb 18, 2024 pm 10:51 PM

Tutorial pemasangan rangka kerja Flask: Ajar anda langkah demi langkah cara memasang rangka kerja Flask dengan betul. Contoh kod khusus diperlukan. Ia mudah dipelajari, mudah digunakan dan padat dengan ciri yang hebat. Artikel ini akan membawa anda langkah demi langkah untuk memasang rangka kerja Flask dengan betul dan memberikan contoh kod terperinci untuk rujukan. Langkah 1: Pasang Python Sebelum memasang rangka kerja Flask, anda perlu terlebih dahulu memastikan bahawa Python dipasang pada komputer anda. Anda boleh bermula dari P

Super kuat! 10 algoritma pembelajaran mendalam teratas! Super kuat! 10 algoritma pembelajaran mendalam teratas! Mar 15, 2024 pm 03:46 PM

Hampir 20 tahun telah berlalu sejak konsep pembelajaran mendalam dicadangkan pada tahun 2006. Pembelajaran mendalam, sebagai revolusi dalam bidang kecerdasan buatan, telah melahirkan banyak algoritma yang berpengaruh. Jadi, pada pendapat anda, apakah 10 algoritma teratas untuk pembelajaran mendalam? Berikut adalah algoritma teratas untuk pembelajaran mendalam pada pendapat saya Mereka semua menduduki kedudukan penting dari segi inovasi, nilai aplikasi dan pengaruh. 1. Latar belakang rangkaian saraf dalam (DNN): Rangkaian saraf dalam (DNN), juga dipanggil perceptron berbilang lapisan, adalah algoritma pembelajaran mendalam yang paling biasa Apabila ia mula-mula dicipta, ia dipersoalkan kerana kesesakan kuasa pengkomputeran tahun, kuasa pengkomputeran, Kejayaan datang dengan letupan data. DNN ialah model rangkaian saraf yang mengandungi berbilang lapisan tersembunyi. Dalam model ini, setiap lapisan menghantar input ke lapisan seterusnya dan

Panduan untuk memasang dan menyelesaikan ralat biasa dalam perpustakaan Scipy Panduan untuk memasang dan menyelesaikan ralat biasa dalam perpustakaan Scipy Feb 18, 2024 am 10:53 AM

Panduan pemasangan perpustakaan Scipy dan penyelesaian ralat biasa Pengenalan: Scipy ialah perpustakaan sumber terbuka untuk pengkomputeran saintifik Python, menyediakan pelbagai fungsi pengkomputeran matematik, saintifik dan kejuruteraan. Ia dibina berdasarkan perpustakaan NumPy dan boleh mengendalikan beberapa masalah pengiraan berangka yang kompleks. Artikel ini akan memperkenalkan panduan pemasangan Scipy dan menyediakan penyelesaian kepada beberapa ralat biasa, bersama-sama dengan contoh kod khusus untuk membantu pembaca memahami dan menggunakan Scipy dengan lebih baik. 1. Panduan pemasangan perpustakaan Scipy untuk memasang Python dan pi

See all articles