Al Agent--Satu hala tuju pelaksanaan yang penting dalam era model besar
1. Seni bina keseluruhan Agen berasaskan LLM
Komposisi model bahasa besar Ejen terbahagi terutamanya kepada 4 modul berikut:
1 maklumat Agen
Berikut memperkenalkan kandungan utama dan strategi penjanaan modul potret.
Kandungan potret terutamanya berdasarkan 3 jenis maklumat: maklumat demografi, maklumat personaliti dan maklumat sosial.
Strategi penjanaan: 3 strategi digunakan terutamanya untuk menjana kandungan potret:
- Kaedah reka bentuk manual: Tulis kandungan potret pengguna ke dalam gesaan model besar dengan cara yang ditetapkan; daripada Ejen Agak sedikit situasi; Ejen;
- Kaedah penjajaran data: Ia adalah perlu untuk menggunakan maklumat latar belakang aksara dalam set data yang telah ditetapkan sebagai gesaan model bahasa besar, dan kemudian membuat ramalan yang sepadan. . dipertimbangkan, bukan ingatan jangka panjang.
- Memori Hibrid: Ingatan jangka panjang dan ingatan jangka pendek digabungkan.
Borang ingatan: Terutamanya berdasarkan 4 borang berikut.
Bahasa
- Pangkalan data
- Perwakilan vektor
- Kandungan ingatan: 3 operasi biasa berikut ialah:
- Bacaan ingatan
- Penulisan ingatan
- Renungan ingatan
- model perancangan besar 3. dalam proses inferens Tiada maklum balas daripada persekitaran luaran diperlukan. Perancangan jenis ini dibahagikan lagi kepada tiga jenis: penaakulan berasaskan saluran tunggal, yang menggunakan model bahasa besar sekali sahaja untuk mengeluarkan sepenuhnya langkah-langkah penaakulan berasaskan pelbagai saluran, menggunakan idea crowdsourcing; membenarkan model bahasa besar menjana berbilang Sebabkan laluan dan tentukan laluan terbaik;
- Merancang dengan maklum balas: Kaedah perancangan ini memerlukan maklum balas daripada persekitaran luaran, manakala model bahasa besar memerlukan maklum balas daripada persekitaran untuk langkah seterusnya dan perancangan seterusnya. Pembekal jenis maklum balas perancangan ini datang daripada tiga sumber: maklum balas alam sekitar, maklum balas manusia dan maklum balas model.
- 4. Modul Tindakan
Matlamat tindakan: Beberapa matlamat Ejen adalah untuk menyelesaikan tugas, ada yang berkomunikasi dan ada yang meneroka.
- Penjanaan tindakan: Sesetengah Ejen bergantung pada ingatan ingatan untuk menjana tindakan, dan sesetengahnya melakukan tindakan tertentu mengikut pelan asal.
- Ruang tindakan: Sesetengah ruang tindakan ialah koleksi alatan dan sesetengahnya berdasarkan pengetahuan model bahasa besar itu sendiri, dengan mengambil kira keseluruhan ruang tindakan dari perspektif kesedaran diri.
Impak tindakan: termasuk kesan ke atas alam sekitar, kesan ke atas keadaan dalaman dan kesan ke atas tindakan baharu pada masa hadapan.
- Di atas adalah rangka kerja keseluruhan Ejen Untuk maklumat lanjut, sila rujuk kertas berikut:
- Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Chen Zhang, Zhiyuan. , Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei, Ji-Rong Wen: Tinjauan tentang Ejen Autonomi berasaskan Model Bahasa Besar abs/2308.11432 (2023)
- .
2. Isu Utama & Sukar Ejen berasaskan LLM
Isu utama dan sukar model bahasa besar semasa Ejen terutamanya termasuk:
1
Ejen Fungsi yang paling penting ialah untuk menyelesaikan tugasan tertentu atau menyelesaikan pelbagai simulasi dengan memainkan peranan tertentu, jadi keupayaan Ejen memainkan peranan adalah penting.
(1) Definisi kebolehan main peranan ejen
Keupayaan main peranan ejen dibahagikan kepada dua dimensi:
- Mekanisme watak dan tingkah laku Ejen
- dalam persekitaran
Selepas menentukan kebolehan main peranan, langkah seterusnya ialah menilai keupayaan main peranan Ejen daripada dua aspek berikut:
- Petunjuk penilaian main peranan
- Senario penilaian main peranan
- (3) Asas ejen, penilaian keupayaan🜎
Meningkatkan keupayaan main peranan melalui segera: Intipati kaedah ini adalah untuk merangsang keupayaan model bahasa besar asal dengan mereka bentuk segera;
- Tingkatkan keupayaan main peranan melalui penalaan halus: Kaedah ini biasanya berdasarkan Menggunakan data luaran, perhalusi model bahasa besar sekali lagi untuk meningkatkan keupayaan main peranan.
- 2. watak peranan penting daripada. Analisis mekanisme ingatan Ejen daripada 3 dimensi:
- (1) Reka bentuk mekanisme memori ejen
Terdapat dua mekanisme ingatan biasa:
Mekanisme pengambilan memori
Pengambilan ingatan berdasarkan vektor
Mekanisme ingatan berdasarkan ringkasan LLM- (2) Penilaian keupayaan ingatan ejen
- Untuk menilai keupayaan ingatan Ejen, adalah perlu untuk menentukan dua perkara berikut: Penunjuk penilaian
- Senario penilaian
- (3) Evolusi mekanisme memori ejen Akhirnya, evolusi mekanisme ingatan Ejen perlu dianalisis, termasuk:Evolusi mekanisme ingatan
- Definisi dan pembongkaran sub-tugas
- Tertib pelaksanaan tugas yang optimum
- (2) Mekanisme perbahasan Pelbagai Ejen
- Reka bentuk mekanisme perbahasan ejen
- 3 berdasarkan model bahasa besar Ejen Simulasi Tingkah Laku
- Berikut adalah beberapa kes sebenar Ejen. Yang pertama ialah ejen simulasi tingkah laku pengguna berdasarkan model bahasa yang besar. Ejen ini juga merupakan kerja awal dalam menggabungkan ejen model bahasa besar dengan analisis tingkah laku pengguna. Dalam kerja ini, setiap Ejen dibahagikan kepada tiga modul:
- 2. Modul memori Modul memori merangkumi tiga sub-modul
- (1) Memori perasaan
- Masa penyimpanan kandungan ingatan jangka pendek adalah agak singkat
- (3) Jangka panjang memori
- seperti MetaGPT, ChatDev , Ghost, DESP, dsb.
Ejen jenis ini akhirnya harus menjadi "superman" yang sejajar dengan nilai kemanusiaan yang betul, dengan dua "qualifier":
Sejajar dengan nilai kemanusiaan yang betul ;
Di luar kemampuan manusia biasa. - Simulasikan dunia sebenar, seperti Ejen Generatif, Simulasi Sosial, RecAgent, dll.
Keupayaan yang diperlukan oleh Ejen jenis ini adalah bertentangan sepenuhnya dengan jenis pertama. .
Di samping itu, model bahasa besar semasa Ejen mempunyai dua titik kesakitan berikut:
Masalah ilusi Oleh kerana Ejen perlu terus berinteraksi dengan persekitaran, ilusi setiap langkah akan menjadi ilusi , iaitu, ia akan berlaku Kesan kumulatif menjadikan masalah lebih serius oleh itu, ilusi model besar memerlukan perhatian lanjut di sini. Penyelesaiannya termasuk: -
Reka bentuk mekanisme campur tangan manusia yang cekap. Isu kecekapan
Semasa proses simulasi, kecekapan ialah isu yang sangat penting;
-
Di atas adalah kandungan yang dikongsikan kali ini, terima kasih semua.
(2) Integrasi penaakulan Ejen dan maklum balas luaran🜎
mekanisme integrasi maklum balas luaran dalam proses penaakulan: Biarkan Ejen dan persekitaran membentuk keseluruhan yang interaktif; Sebaliknya, Ejen perlu boleh bertanya dan mencari penyelesaian kepada persekitaran luaran. . reka bentuk mekanisme kerjasama
Penukaran penentuan syarat ejen
1 Modul potret
menentukan atribut yang berbeza untuk Ejen yang berbeza, seperti ID, nama, pekerjaan, umur, minat, ciri, dll.
(2) Memori jangka pendek
diperhatikan secara objektif pemerhatian mentah Selepas pemprosesan, pemerhatian dengan kandungan maklumat yang lebih tinggi dijana dan disimpan dalam ingatan jangka pendekSelepas pencetus dan pengaktifan berulang, kandungan ingatan jangka pendek akan dipindahkan secara automatik ke ingatan jangka panjang Masa penyimpanan kandungan ingatan jangka panjang adalah agak panjang penghalusan.
3. Modul Tindakan
Setiap Ejen boleh melakukan tiga tindakan:
Tingkah laku ejen dalam sistem pengesyoran, dan meninggalkan halaman cadangan, dan sebagainya. . ;
Tingkah laku perbualan antara Ejen;
Semasa keseluruhan proses simulasi, Ejen boleh bebas memilih tiga tindakan dalam setiap pusingan tindakan tanpa gangguan luar; kita dapat melihat bahawa Ejen yang berbeza akan bercakap antara satu sama lain dan juga akan Pelbagai tingkah laku dijana secara autonomi dalam media sosial atau sistem pengesyoran; selepas beberapa pusingan simulasi, beberapa fenomena sosial yang menarik boleh diperhatikan, serta peraturan tingkah laku pengguna di Internet.
Untuk maklumat lanjut, sila rujuk kertas berikut:
Lei Wang, Jingsen Zhang, Hao Yang, Zhiyuan Chen, Jiakai Tang, Zeyu Zhang, Xu Chen, Yankai Lin, Ruihua Song, Wayne Xin Zhao, Jun Xu, Zhicheng Dou, Jun Wang, Ji-Rong Wen:When Large Language Ejen berasaskan Model Bertemu Analisis Tingkah Laku Pengguna: Paradigma Simulasi Pengguna Novel
IV pembangunan perisian berbilang ejen berdasarkan model bahasa yang besar
Contoh penggunaan Agent seterusnya
. pelbagai Ejen melaksanakan pembangunan perisian. Kerja ini juga merupakan kerja awal kerjasama pelbagai Ejen, dan tujuan utamanya adalah untuk menggunakan Ejen yang berbeza untuk membangunkan perisian yang lengkap. Oleh itu, ia boleh dianggap sebagai sebuah syarikat perisian, dan Ejen yang berbeza akan memainkan peranan yang berbeza: sesetengah Ejen bertanggungjawab untuk reka bentuk, termasuk peranan seperti Ketua Pegawai Eksekutif, CTO, MSM, dll., beberapa Ejen bertanggungjawab untuk pengekodan, dan beberapa Ejen adalah terutamanya bertanggungjawab untuk ujian di samping itu, terdapat Beberapa ejen bertanggungjawab untuk menulis dokumen. Dengan cara ini, Ejen yang berbeza bertanggungjawab untuk tugas yang berbeza akhirnya, mekanisme kerjasama antara Ejen diselaraskan dan dikemas kini melalui komunikasi, dan proses pembangunan perisian yang lengkap akhirnya selesai.5. Arah masa depan Agen berasaskan LLM
Ejen model bahasa besar pada masa ini boleh dibahagikan kepada dua
Mereka bentuk rangka kerja kerjasama manusia-mesin yang cekap;
Atas ialah kandungan terperinci Al Agent--Satu hala tuju pelaksanaan yang penting dalam era model besar. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Penterjemah |. Tinjauan Bugatti |. Chonglou Artikel ini menerangkan cara menggunakan enjin inferens GroqLPU untuk menjana respons sangat pantas dalam JanAI dan VSCode. Semua orang sedang berusaha membina model bahasa besar (LLM) yang lebih baik, seperti Groq yang memfokuskan pada bahagian infrastruktur AI. Sambutan pantas daripada model besar ini adalah kunci untuk memastikan model besar ini bertindak balas dengan lebih cepat. Tutorial ini akan memperkenalkan enjin parsing GroqLPU dan cara mengaksesnya secara setempat pada komputer riba anda menggunakan API dan JanAI. Artikel ini juga akan menyepadukannya ke dalam VSCode untuk membantu kami menjana kod, kod refactor, memasukkan dokumentasi dan menjana unit ujian. Artikel ini akan mencipta pembantu pengaturcaraan kecerdasan buatan kami sendiri secara percuma. Pengenalan kepada enjin inferens GroqLPU Groq

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Artikel ini akan membuka sumber hasil "Pengedaran Tempatan Model Bahasa Besar dalam OpenHarmony" yang ditunjukkan pada Persidangan Teknologi OpenHarmony ke-2 alamat sumber terbuka: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/. InferLLM/docs/ hap_integrate.md. Idea dan langkah pelaksanaan adalah untuk memindahkan rangka kerja inferens model LLM ringan InferLLM kepada sistem standard OpenHarmony dan menyusun produk binari yang boleh dijalankan pada OpenHarmony. InferLLM ialah L yang mudah dan cekap

Pembelajaran mesin ialah cabang penting kecerdasan buatan yang memberikan komputer keupayaan untuk belajar daripada data dan meningkatkan keupayaan mereka tanpa diprogramkan secara eksplisit. Pembelajaran mesin mempunyai pelbagai aplikasi dalam pelbagai bidang, daripada pengecaman imej dan pemprosesan bahasa semula jadi kepada sistem pengesyoran dan pengesanan penipuan, dan ia mengubah cara hidup kita. Terdapat banyak kaedah dan teori yang berbeza dalam bidang pembelajaran mesin, antaranya lima kaedah yang paling berpengaruh dipanggil "Lima Sekolah Pembelajaran Mesin". Lima sekolah utama ialah sekolah simbolik, sekolah sambungan, sekolah evolusi, sekolah Bayesian dan sekolah analogi. 1. Simbolisme, juga dikenali sebagai simbolisme, menekankan penggunaan simbol untuk penaakulan logik dan ekspresi pengetahuan. Aliran pemikiran ini percaya bahawa pembelajaran adalah proses penolakan terbalik, melalui sedia ada

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka
