Tutorial Tiktoken: Perpustakaan Python Openai ' untuk Tekenisasi Teks
Segmentasi perkataan yang cekap adalah penting untuk prestasi model bahasa, menjadikannya langkah penting dalam pelbagai tugas NLP seperti penjanaan teks, terjemahan, dan abstraksi.
Tiktoken adalah tesaurus yang cepat dan cekap yang dibangunkan oleh OpenAI. Ia menyediakan penyelesaian yang kuat untuk menukar teks ke dalam tag dan sebaliknya. Kelajuan dan kecekapannya menjadikannya pilihan yang sangat baik untuk pemaju dan saintis data yang bekerja dengan set data yang besar dan model kompleks.
Panduan ini direka untuk pemaju, saintis data, dan sesiapa yang merancang untuk menggunakan tiktoken dan memerlukan panduan praktikal yang mengandungi contoh.
Asas Openai
Bermula dengan Openai API dan banyak lagi!
mulakan sekarang Anda boleh melihat kod untuk versi Python Sumber Open Tiktoken dalam repositori GitHub berikut.
Untuk mengimport perpustakaan, kami menjalankan:
<code>pip install tiktoken</code>
Model pengekodan
Model pengekodan dalam Tiktoken menentukan peraturan untuk memecahkan teks ke dalam tag. Model -model ini sangat penting kerana mereka menentukan bagaimana teks dibahagikan dan dikodkan, yang mempengaruhi kecekapan dan ketepatan tugas pemprosesan bahasa. Model terbuka yang berbeza menggunakan pengekodan yang berbeza.
<code>import tiktoken</code>
- O200K_Base: Pengekodan model GPT-4O-MINI terkini.
- cl100k_base: Model pengekodan untuk model terbuka yang lebih baru seperti GPT-4 dan GPT-3.5-Turbo.
- p50k_base: Model codex yang digunakan dalam aplikasi kod.
- r50k_base: Pengekodan lama untuk versi GPT-3 yang berlainan.
Semua model ini tersedia untuk API OpenAI. Perhatikan bahawa API menyediakan lebih banyak model daripada yang disenaraikan di sini. Nasib baik, Perpustakaan Tiktoken menyediakan cara mudah untuk memeriksa pengekodan mana yang harus digunakan dengan model mana.
Sebagai contoh, jika saya perlu tahu model pengekodan yang digunakan oleh model-embedding-3-blall model, saya boleh menjalankan arahan berikut dan mendapatkan jawapan sebagai output:
<code>pip install tiktoken</code>
kita mendapat
encode teks sebagai penanda
Untuk menyandikan teks sebagai tag menggunakan tiktoken, anda perlu mendapatkan objek yang dikodkan terlebih dahulu. Terdapat dua cara untuk memulakannya. Pertama, anda boleh melakukan ini menggunakan nama tokenizer:
<code>import tiktoken</code>
Sebagai alternatif, anda boleh menjalankan fungsi encoding_for_model yang disebut sebelum ini untuk mendapatkan encoder untuk model tertentu:
<code>print(tiktoken.encoding_for_model('text-embedding-3-small'))</code>
Sekarang, kita boleh menjalankan kaedah encode objek encode untuk menyandikan rentetan. Sebagai contoh, kita boleh menyandikan rentetan "I Love DataCamp" seperti berikut - Di sini saya menggunakan pengekod CL100K_BASE:
<code>encoding = tiktoken.get_encoding("[标记器名称]")</code>
Kami mendapat [40, 3021, 2956, 34955] sebagai output.
menyahkod tanda ke dalam teks
Untuk menyahkod tanda kembali ke teks, kita boleh menggunakan kaedah .decode () pada objek yang dikodkan.
Let's Decode Tag berikut [40, 4048, 264, 2763, 505, 2956, 34955]:
<code>encoding = tiktoken.encoding_for_model("[模型名称]")</code>
Tanda -tanda ini dikodkan sebagai "Saya banyak belajar dari DataCamp".
kes penggunaan praktikal dan petua
Selain pengekodan dan penyahkodan, saya juga memikirkan dua kes penggunaan lain.
Anggaran dan Pengurusan Kos
Memahami pengiraan tag sebelum menghantar permintaan ke API OpenAI dapat membantu anda menguruskan kos dengan cekap. Oleh kerana pengebilan OpenAI didasarkan pada bilangan tag yang diproses, teks pra-tag membolehkan anda menganggarkan kos penggunaan API. Inilah cara mengira tag dalam teks menggunakan tiktoken:
<code>print(encoding.encode("我爱 DataCamp"))</code>
kita hanya perlu menyemak panjang array untuk melihat berapa banyak tanda yang kita dapat. Dengan mengetahui bilangan tag terlebih dahulu, anda boleh memutuskan sama ada untuk memendekkan teks atau menyesuaikan penggunaan untuk kekal dalam anggaran anda.
Anda boleh membaca lebih lanjut mengenai kaedah ini dalam tutorial ini untuk menganggarkan kos GPT menggunakan Perpustakaan Tiktoken di Python.
Pengesahan panjang input
Apabila menggunakan model OpenAI dari API, anda dibatasi oleh bilangan maksimum input dan output penanda. Melebihi had ini boleh mengakibatkan kesilapan atau output dipotong. Dengan Tiktoken, anda boleh mengesahkan panjang input dan pastikan ia mematuhi had penandaan.
Kesimpulan
Tiktoken adalah sumber terbuka sumber yang menyediakan kelajuan dan kecekapan yang disesuaikan dengan model bahasa terbuka.
belajar cara menggunakan tiktoken untuk mengekod dan menyahkod teks dan pelbagai model pengekodannya dapat meningkatkan kerja anda dengan model bahasa yang besar.
Dapatkan pensijilan AI Top
Buktikan bahawa anda boleh menggunakan AI dengan berkesan dan bertanggungjawab. Dapatkan Bersertifikat, Dapatkan Diupah
Atas ialah kandungan terperinci Tutorial Tiktoken: Perpustakaan Python Openai ' untuk Tekenisasi Teks. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Pengekodan Vibe membentuk semula dunia pembangunan perisian dengan membiarkan kami membuat aplikasi menggunakan bahasa semulajadi dan bukannya kod yang tidak berkesudahan. Diilhamkan oleh penglihatan seperti Andrej Karpathy, pendekatan inovatif ini membolehkan Dev

Februari 2025 telah menjadi satu lagi bulan yang berubah-ubah untuk AI generatif, membawa kita beberapa peningkatan model yang paling dinanti-nantikan dan ciri-ciri baru yang hebat. Dari Xai's Grok 3 dan Anthropic's Claude 3.7 Sonnet, ke Openai's G

Yolo (anda hanya melihat sekali) telah menjadi kerangka pengesanan objek masa nyata yang terkemuka, dengan setiap lelaran bertambah baik pada versi sebelumnya. Versi terbaru Yolo V12 memperkenalkan kemajuan yang meningkatkan ketepatan

Artikel ini mengkaji semula penjana seni AI atas, membincangkan ciri -ciri mereka, kesesuaian untuk projek kreatif, dan nilai. Ia menyerlahkan Midjourney sebagai nilai terbaik untuk profesional dan mengesyorkan Dall-E 2 untuk seni berkualiti tinggi dan disesuaikan.

CHATGPT 4 kini tersedia dan digunakan secara meluas, menunjukkan penambahbaikan yang ketara dalam memahami konteks dan menjana tindak balas yang koheren berbanding dengan pendahulunya seperti ChATGPT 3.5. Perkembangan masa depan mungkin merangkumi lebih banyak Inter yang diperibadikan

Artikel ini membincangkan model AI yang melampaui chatgpt, seperti Lamda, Llama, dan Grok, menonjolkan kelebihan mereka dalam ketepatan, pemahaman, dan kesan industri. (159 aksara)

Mistral OCR: Merevolusi Generasi Pengambilan Pengambilan semula dengan Pemahaman Dokumen Multimodal Sistem Generasi Pengambilan Retrieval (RAG) mempunyai keupayaan AI yang ketara, membolehkan akses ke kedai data yang luas untuk mendapatkan respons yang lebih tepat

Artikel ini membincangkan pembantu penulisan AI terkemuka seperti Grammarly, Jasper, Copy.ai, WriteSonic, dan Rytr, yang memberi tumpuan kepada ciri -ciri unik mereka untuk penciptaan kandungan. Ia berpendapat bahawa Jasper cemerlang dalam pengoptimuman SEO, sementara alat AI membantu mengekalkan nada terdiri
