


OpenAI melancarkan kemas kini utama kepada GPT chatbot API untuk pembangun dan menurunkan harga
Berita pada 14 Jun, OpenAI hari ini mengumumkan kemas kini utama kepada API model bahasa besarnya (termasuk GPT-4 dan gpt-3.5-turbo), termasuk fungsi panggilan fungsi baharu, Kurangkan penggunaan kos dan menyediakan versi 16,000 token untuk model gpt-3.5-turbo.
Model Bahasa Besar (LLM) ialah teknologi kecerdasan buatan yang boleh memproses bahasa semula jadi "context window"nya bersamaan dengan memori jangka pendek yang boleh menyimpan kandungan input atau kandungan dialog robot. Dalam model bahasa, meningkatkan saiz tetingkap konteks telah menjadi perlumbaan teknikal, dan Anthropic baru-baru ini mengumumkan bahawa model bahasa Claudenya boleh menyediakan 75,000 pilihan tetingkap konteks token. Selain itu, OpenAI juga telah membangunkan versi 32,000 token GPT-4, tetapi ia belum lagi dilancarkan secara terbuka.
OpenAI baru sahaja melancarkan versi tetingkap konteks 16000 baharu bagi gpt-3.5-turbo, dinamakan "gpt-3.5-turbo-16k", yang boleh mengendalikan input sehingga 16000 token panjang, yang bermaksud bahawa Memproses lebih kurang 20 halaman teks pada satu masa, ini merupakan peningkatan besar untuk pembangun yang perlu memodelkan pemprosesan dan menjana blok teks yang lebih besar.
Selain perubahan ini, OpenAI menyenaraikan sekurang-kurangnya empat ciri baharu utama yang lain:
- Memperkenalkan keupayaan panggilan fungsi dalam API Penyiapan Sembang
- Diperbaiki dan "lebih versi steerable" GPT-4 dan gpt-3.5-turbo
- Mengurangkan harga model terbenam "ada" sebanyak 75%
- Mengurangkan harga gpt -Harga token input 3.5 -model turbo telah dikurangkan sebanyak 25%
Fungsi panggilan fungsi memudahkan pembangun membina fungsi yang boleh memanggil alat luaran, menukar bahasa semula jadi kepada panggilan API luaran atau melakukan pertanyaan pangkalan data . Contohnya, ia boleh menukar input seperti "Hantar e-mel kepada Anya untuk melihat sama ada dia mahu kopi Jumaat depan" kepada panggilan fungsi seperti "hantar_email (ke: rentetan, badan: rentetan)". Khususnya, ciri ini turut memudahkan pengguna API menjana output dalam format JSON, sesuatu yang sebelum ini sukar dicapai.
Mengenai aspek "lebih terkawal", yang merupakan istilah teknikal untuk cara membuat LLM berkelakuan seperti yang anda mahu, OpenAI berkata model "gpt-3.5-turbo-0613" baharunya akan termasuk " Kawalan yang lebih dipercayai melalui fungsi mesej sistem". Mesej sistem ialah input arahan khas dalam API yang memberitahu model bagaimana untuk bertindak, seperti "Anda adalah Grimes dan anda hanya bercakap tentang milkshake."
Selain peningkatan fungsi, OpenAI juga menyediakan pengurangan kos yang banyak. . Terutama, harga token model gpt-3.5-turbo yang popular dikurangkan sebanyak 25%. Ini bermakna bahawa pembangun kini boleh menggunakan model ini untuk kira-kira $0.0015 setiap 1000 token dan $0.002 setiap 1000 token, yang bersamaan dengan kira-kira 700 halaman teks setiap dolar. Model gpt-3.5-turbo-16k berharga AS$0.003 setiap 1000 token dan AS$0.004 setiap 1000 token.
Selain itu, IT House mendapati OpenAI juga telah mengurangkan harga model pembenaman "text-embedding-ada-002" sebanyak 75%. Model benam ialah teknik yang membolehkan komputer memahami perkataan dan konsep, menukar bahasa semula jadi kepada bahasa digital yang boleh difahami oleh mesin, yang penting untuk tugasan seperti mencari teks dan mengesyorkan kandungan yang berkaitan.
Memandangkan OpenAI sentiasa mengemas kini modelnya, model lama tidak akan kekal. Hari ini, syarikat itu juga mengumumkan ia mula menamatkan beberapa versi awal modelnya, termasuk gpt-3.5-turbo-0301 dan gpt-4-0314. Pembangun boleh terus menggunakan model ini sehingga 13 September, selepas itu model lama ini tidak akan tersedia lagi, kata syarikat itu. Perlu diingat bahawa API GPT-4 OpenAI masih dalam senarai menunggu dan belum dibuka sepenuhnya.
Atas ialah kandungan terperinci OpenAI melancarkan kemas kini utama kepada GPT chatbot API untuk pembangun dan menurunkan harga. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

LeanCopilot, alat matematik formal yang telah dipuji oleh ramai ahli matematik seperti Terence Tao, telah berkembang semula? Sebentar tadi, profesor Caltech Anima Anandkumar mengumumkan bahawa pasukan itu mengeluarkan versi diperluaskan kertas LeanCopilot dan mengemas kini pangkalan kod. Alamat kertas imej: https://arxiv.org/pdf/2404.12534.pdf Percubaan terkini menunjukkan bahawa alat Copilot ini boleh mengautomasikan lebih daripada 80% langkah pembuktian matematik! Rekod ini adalah 2.3 kali lebih baik daripada aesop garis dasar sebelumnya. Dan, seperti sebelum ini, ia adalah sumber terbuka di bawah lesen MIT. Dalam gambar, dia ialah Song Peiyang, seorang budak Cina

Sumber imej@visualchinesewen|Wang Jiwei Daripada "manusia + RPA" kepada "manusia + generatif AI + RPA", bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Dari perspektif lain, bagaimanakah LLM mempengaruhi RPA dari perspektif interaksi manusia-komputer? RPA, yang menjejaskan interaksi manusia-komputer dalam pembangunan program dan automasi proses, kini akan turut diubah oleh LLM? Bagaimanakah LLM mempengaruhi interaksi manusia-komputer? Bagaimanakah AI generatif mengubah interaksi manusia-komputer RPA? Ketahui lebih lanjut mengenainya dalam satu artikel: Era model besar akan datang, dan AI generatif berdasarkan LLM sedang mengubah interaksi manusia-komputer RPA dengan pantas mentakrifkan semula interaksi manusia-komputer, dan LLM mempengaruhi perubahan dalam seni bina perisian RPA. Jika anda bertanya apakah sumbangan RPA kepada pembangunan program dan automasi, salah satu jawapannya ialah ia telah mengubah interaksi manusia-komputer (HCI, h

Plaud, syarikat di belakang Perakam Suara AI Plaud Note (tersedia di Amazon dengan harga $159), telah mengumumkan produk baharu. Digelar NotePin, peranti ini digambarkan sebagai kapsul memori AI, dan seperti Pin AI Humane, ini boleh dipakai. NotePin ialah

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur

Memandangkan prestasi model bahasa berskala besar sumber terbuka terus bertambah baik, prestasi dalam penulisan dan analisis kod, pengesyoran, ringkasan teks dan pasangan menjawab soalan (QA) semuanya bertambah baik. Tetapi apabila ia berkaitan dengan QA, LLM sering gagal dalam isu yang berkaitan dengan data yang tidak terlatih, dan banyak dokumen dalaman disimpan dalam syarikat untuk memastikan pematuhan, rahsia perdagangan atau privasi. Apabila dokumen ini disoal, LLM boleh berhalusinasi dan menghasilkan kandungan yang tidak relevan, rekaan atau tidak konsisten. Satu teknik yang mungkin untuk menangani cabaran ini ialah Retrieval Augmented Generation (RAG). Ia melibatkan proses meningkatkan respons dengan merujuk pangkalan pengetahuan berwibawa di luar sumber data latihan untuk meningkatkan kualiti dan ketepatan penjanaan. Sistem RAG termasuk sistem mendapatkan semula untuk mendapatkan serpihan dokumen yang berkaitan daripada korpus

Google AI telah mula menyediakan pembangun akses kepada tetingkap konteks lanjutan dan ciri penjimatan kos, bermula dengan model bahasa besar (LLM) Gemini 1.5 Pro. Sebelum ini tersedia melalui senarai tunggu, penuh 2 juta token konteks windo
