Rumah Peranti teknologi AI OpenAI melancarkan kemas kini utama kepada GPT chatbot API untuk pembangun dan menurunkan harga

OpenAI melancarkan kemas kini utama kepada GPT chatbot API untuk pembangun dan menurunkan harga

Jun 15, 2023 am 11:03 AM
llm

OpenAI 为开发者推出 GPT 聊天机器人 API 大更新,同时降低价格

Berita pada 14 Jun, OpenAI hari ini mengumumkan kemas kini utama kepada API model bahasa besarnya (termasuk GPT-4 dan gpt-3.5-turbo), termasuk fungsi panggilan fungsi baharu, Kurangkan penggunaan kos dan menyediakan versi 16,000 token untuk model gpt-3.5-turbo.

Model Bahasa Besar (LLM) ialah teknologi kecerdasan buatan yang boleh memproses bahasa semula jadi "context window"nya bersamaan dengan memori jangka pendek yang boleh menyimpan kandungan input atau kandungan dialog robot. Dalam model bahasa, meningkatkan saiz tetingkap konteks telah menjadi perlumbaan teknikal, dan Anthropic baru-baru ini mengumumkan bahawa model bahasa Claudenya boleh menyediakan 75,000 pilihan tetingkap konteks token. Selain itu, OpenAI juga telah membangunkan versi 32,000 token GPT-4, tetapi ia belum lagi dilancarkan secara terbuka.

OpenAI baru sahaja melancarkan versi tetingkap konteks 16000 baharu bagi gpt-3.5-turbo, dinamakan "gpt-3.5-turbo-16k", yang boleh mengendalikan input sehingga 16000 token panjang, yang bermaksud bahawa Memproses lebih kurang 20 halaman teks pada satu masa, ini merupakan peningkatan besar untuk pembangun yang perlu memodelkan pemprosesan dan menjana blok teks yang lebih besar.

Selain perubahan ini, OpenAI menyenaraikan sekurang-kurangnya empat ciri baharu utama yang lain:

  • Memperkenalkan keupayaan panggilan fungsi dalam API Penyiapan Sembang
  • Diperbaiki dan "lebih versi steerable" GPT-4 dan gpt-3.5-turbo
  • Mengurangkan harga model terbenam "ada" sebanyak 75%
  • Mengurangkan harga gpt -Harga token input 3.5 -model turbo telah dikurangkan sebanyak 25%

Fungsi panggilan fungsi memudahkan pembangun membina fungsi yang boleh memanggil alat luaran, menukar bahasa semula jadi kepada panggilan API luaran atau melakukan pertanyaan pangkalan data . Contohnya, ia boleh menukar input seperti "Hantar e-mel kepada Anya untuk melihat sama ada dia mahu kopi Jumaat depan" kepada panggilan fungsi seperti "hantar_email (ke: rentetan, badan: rentetan)". Khususnya, ciri ini turut memudahkan pengguna API menjana output dalam format JSON, sesuatu yang sebelum ini sukar dicapai.

Mengenai aspek "lebih terkawal", yang merupakan istilah teknikal untuk cara membuat LLM berkelakuan seperti yang anda mahu, OpenAI berkata model "gpt-3.5-turbo-0613" baharunya akan termasuk " Kawalan yang lebih dipercayai melalui fungsi mesej sistem". Mesej sistem ialah input arahan khas dalam API yang memberitahu model bagaimana untuk bertindak, seperti "Anda adalah Grimes dan anda hanya bercakap tentang milkshake."

Selain peningkatan fungsi, OpenAI juga menyediakan pengurangan kos yang banyak. . Terutama, harga token model gpt-3.5-turbo yang popular dikurangkan sebanyak 25%. Ini bermakna bahawa pembangun kini boleh menggunakan model ini untuk kira-kira $0.0015 setiap 1000 token dan $0.002 setiap 1000 token, yang bersamaan dengan kira-kira 700 halaman teks setiap dolar. Model gpt-3.5-turbo-16k berharga AS$0.003 setiap 1000 token dan AS$0.004 setiap 1000 token.

Selain itu, IT House mendapati OpenAI juga telah mengurangkan harga model pembenaman "text-embedding-ada-002" sebanyak 75%. Model benam ialah teknik yang membolehkan komputer memahami perkataan dan konsep, menukar bahasa semula jadi kepada bahasa digital yang boleh difahami oleh mesin, yang penting untuk tugasan seperti mencari teks dan mengesyorkan kandungan yang berkaitan.

Memandangkan OpenAI sentiasa mengemas kini modelnya, model lama tidak akan kekal. Hari ini, syarikat itu juga mengumumkan ia mula menamatkan beberapa versi awal modelnya, termasuk gpt-3.5-turbo-0301 dan gpt-4-0314. Pembangun boleh terus menggunakan model ini sehingga 13 September, selepas itu model lama ini tidak akan tersedia lagi, kata syarikat itu. Perlu diingat bahawa API GPT-4 OpenAI masih dalam senarai menunggu dan belum dibuka sepenuhnya.

Atas ialah kandungan terperinci OpenAI melancarkan kemas kini utama kepada GPT chatbot API untuk pembangun dan menurunkan harga. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Panduan langkah demi langkah untuk menggunakan Groq Llama 3 70B secara tempatan Panduan langkah demi langkah untuk menggunakan Groq Llama 3 70B secara tempatan Jun 10, 2024 am 09:16 AM

Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

Caltech Cina menggunakan AI untuk menumbangkan bukti matematik! Mempercepatkan 5 kali terkejut Tao Zhexuan, 80% langkah matematik adalah automatik sepenuhnya Caltech Cina menggunakan AI untuk menumbangkan bukti matematik! Mempercepatkan 5 kali terkejut Tao Zhexuan, 80% langkah matematik adalah automatik sepenuhnya Apr 23, 2024 pm 03:01 PM

LeanCopilot, alat matematik formal yang telah dipuji oleh ramai ahli matematik seperti Terence Tao, telah berkembang semula? Sebentar tadi, profesor Caltech Anima Anandkumar mengumumkan bahawa pasukan itu mengeluarkan versi diperluaskan kertas LeanCopilot dan mengemas kini pangkalan kod. Alamat kertas imej: https://arxiv.org/pdf/2404.12534.pdf Percubaan terkini menunjukkan bahawa alat Copilot ini boleh mengautomasikan lebih daripada 80% langkah pembuktian matematik! Rekod ini adalah 2.3 kali lebih baik daripada aesop garis dasar sebelumnya. Dan, seperti sebelum ini, ia adalah sumber terbuka di bawah lesen MIT. Dalam gambar, dia ialah Song Peiyang, seorang budak Cina

Daripada 'manusia + RPA' kepada 'manusia + generatif AI + RPA', bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Daripada 'manusia + RPA' kepada 'manusia + generatif AI + RPA', bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Jun 05, 2023 pm 12:30 PM

Sumber imej@visualchinesewen|Wang Jiwei Daripada "manusia + RPA" kepada "manusia + generatif AI + RPA", bagaimanakah LLM mempengaruhi interaksi manusia-komputer RPA? Dari perspektif lain, bagaimanakah LLM mempengaruhi RPA dari perspektif interaksi manusia-komputer? RPA, yang menjejaskan interaksi manusia-komputer dalam pembangunan program dan automasi proses, kini akan turut diubah oleh LLM? Bagaimanakah LLM mempengaruhi interaksi manusia-komputer? Bagaimanakah AI generatif mengubah interaksi manusia-komputer RPA? Ketahui lebih lanjut mengenainya dalam satu artikel: Era model besar akan datang, dan AI generatif berdasarkan LLM sedang mengubah interaksi manusia-komputer RPA dengan pantas mentakrifkan semula interaksi manusia-komputer, dan LLM mempengaruhi perubahan dalam seni bina perisian RPA. Jika anda bertanya apakah sumbangan RPA kepada pembangunan program dan automasi, salah satu jawapannya ialah ia telah mengubah interaksi manusia-komputer (HCI, h

Plaud melancarkan perakam boleh pakai NotePin AI untuk $169 Plaud melancarkan perakam boleh pakai NotePin AI untuk $169 Aug 29, 2024 pm 02:37 PM

Plaud, syarikat di belakang Perakam Suara AI Plaud Note (tersedia di Amazon dengan harga $159), telah mengumumkan produk baharu. Digelar NotePin, peranti ini digambarkan sebagai kapsul memori AI, dan seperti Pin AI Humane, ini boleh dipakai. NotePin ialah

Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool Tujuh Soalan Temuduga Teknikal GenAI & LLM yang Cool Jun 07, 2024 am 10:06 AM

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j) GraphRAG dipertingkatkan untuk mendapatkan semula graf pengetahuan (dilaksanakan berdasarkan kod Neo4j) Jun 12, 2024 am 10:32 AM

Penjanaan Dipertingkatkan Pengambilan Graf (GraphRAG) secara beransur-ansur menjadi popular dan telah menjadi pelengkap hebat kepada kaedah carian vektor tradisional. Kaedah ini mengambil kesempatan daripada ciri-ciri struktur pangkalan data graf untuk menyusun data dalam bentuk nod dan perhubungan, dengan itu mempertingkatkan kedalaman dan perkaitan kontekstual bagi maklumat yang diambil. Graf mempunyai kelebihan semula jadi dalam mewakili dan menyimpan maklumat yang pelbagai dan saling berkaitan, dan dengan mudah boleh menangkap hubungan dan sifat yang kompleks antara jenis data yang berbeza. Pangkalan data vektor tidak dapat mengendalikan jenis maklumat berstruktur ini dan ia lebih menumpukan pada pemprosesan data tidak berstruktur yang diwakili oleh vektor berdimensi tinggi. Dalam aplikasi RAG, menggabungkan data graf berstruktur dan carian vektor teks tidak berstruktur membolehkan kami menikmati kelebihan kedua-duanya pada masa yang sama, iaitu perkara yang akan dibincangkan oleh artikel ini. struktur

Visualisasikan ruang vektor FAISS dan laraskan parameter RAG untuk meningkatkan ketepatan hasil Visualisasikan ruang vektor FAISS dan laraskan parameter RAG untuk meningkatkan ketepatan hasil Mar 01, 2024 pm 09:16 PM

Memandangkan prestasi model bahasa berskala besar sumber terbuka terus bertambah baik, prestasi dalam penulisan dan analisis kod, pengesyoran, ringkasan teks dan pasangan menjawab soalan (QA) semuanya bertambah baik. Tetapi apabila ia berkaitan dengan QA, LLM sering gagal dalam isu yang berkaitan dengan data yang tidak terlatih, dan banyak dokumen dalaman disimpan dalam syarikat untuk memastikan pematuhan, rahsia perdagangan atau privasi. Apabila dokumen ini disoal, LLM boleh berhalusinasi dan menghasilkan kandungan yang tidak relevan, rekaan atau tidak konsisten. Satu teknik yang mungkin untuk menangani cabaran ini ialah Retrieval Augmented Generation (RAG). Ia melibatkan proses meningkatkan respons dengan merujuk pangkalan pengetahuan berwibawa di luar sumber data latihan untuk meningkatkan kualiti dan ketepatan penjanaan. Sistem RAG termasuk sistem mendapatkan semula untuk mendapatkan serpihan dokumen yang berkaitan daripada korpus

Google AI mengumumkan Gemini 1.5 Pro dan Gemma 2 untuk pembangun Google AI mengumumkan Gemini 1.5 Pro dan Gemma 2 untuk pembangun Jul 01, 2024 am 07:22 AM

Google AI telah mula menyediakan pembangun akses kepada tetingkap konteks lanjutan dan ciri penjimatan kos, bermula dengan model bahasa besar (LLM) Gemini 1.5 Pro. Sebelum ini tersedia melalui senarai tunggu, penuh 2 juta token konteks windo

See all articles