


Biarkan mesin menjadi antropomorfik, daripada 'kerencatan mental buatan' kepada 'kecerdasan buatan'
Pada 27 Mei, Entrepreneurship Dark Horse telah mengadakan "2023 Leap•Dark Horse AIGC Summit" di Beijing. Tema persidangan ini ialah "Meramalkan Dunia Baru dan Membina Corak Baru." Justin Cassell, bekas dekan bersekutu Pusat Pengajian Sains Komputer di Carnegie Mellon University dan dikenali sebagai "pakar AI" dan bekas pengerusi Majlis Masa Depan Global Pengkomputeran Forum Ekonomi Dunia (WEF) di Davos, serta 360 Group, Zhiyuan Research Institut, Eksekutif kanan dari banyak syarikat dalam industri, termasuk Kunlun Wanwei, Yunzhisheng, BlueFocus, Wondershare Technology dan Zhizhichuangyu, hadir dan mengadakan pertukaran mendalam dengan ribuan peserta.
Di sidang kemuncak itu, Huang Wei, pengasas dan Ketua Pegawai Eksekutif Yunzhisheng, berkongsi tema "Jalan Menuju Masa Depan Pintar".
Berikut ialah kompilasi kandungan yang dikongsi:
Pada mulanya kami ingin melakukannya seperti yang dilakukan oleh pakar, dengan harapan dapat menyerahkan beberapa metodologi kepada mesin Sepuluh tahun lalu, mesin itu mula belajar daripada maklum balas ralat. Ini adalah peringkat dan laluan umum teknologi kecerdasan buatan pada masa lalu.
Hari ini OpenAI melancarkan ChatGPT dan model pra-latihan, dan keseluruhan kecerdasan telah menjadi lebih antropomorfik Pertama, kami menggunakan kuasa pengkomputeran yang sangat berkuasa untuk membaca semua teks yang diketahui di dunia, dan dilatih untuk membentuk model yang besar. Ia terutamanya seperti otak bayi, yang mungkin mempunyai berpuluh bilion atau ratusan bilion parameter Tidak seperti otak manusia, bayi hanya mewarisi penampilan dan keperibadian ibu bapanya paling banyak, tetapi otak model besar mewarisi pengetahuan. yang hanya keadaan awal, dan kemudian melalui pelbagai kaedah seperti penalaan halus, seperti kanak-kanak yang akan menerima pelbagai pendidikan semasa pertumbuhan mereka, evolusi keseluruhan model besar akan menjadi lebih antropomorfik.
Ini ialah perubahan dalam kecerdasan buatan secara keseluruhan.
Apakah perubahan penting antara AGI hari ini dan sebelumnya? Sebelum Disember 2022, keseluruhan kecerdasan buatan masih akan menjadi kecerdasan buatan yang diskriminatif, melakukan soalan penghakiman, sistem khas dan modul pintar untuk melakukan beberapa tugas tertentu. Di satu pihak, prestasi kecerdasan buatan tidak begitu pintar, dan ia sering dikritik oleh orang lain, "Apa yang anda sediakan ialah kecerdasan buatan", sehingga pada masa lalu, siling keupayaan kecerdasan buatan adalah rendah.
Kedua, dalam banyak senario, keperluan pelanggan berbeza-beza, tetapi keupayaan kecerdasan buatan tidak begitu kuat Banyak syarikat dan pasukan menggunakan pelbagai penyesuaian untuk memenuhinya. Syarikat kecerdasan buatan tidak seperti syarikat berteknologi tinggi Dalam sepuluh tahun yang lalu, mereka hanya boleh melakukan AI yang diskriminasi dalam era bengkel manual. Tetapi kini terdapat model besar dan keupayaan am yang lebih berkuasa, dan kecerdasan buatan telah mula memasuki era perindustrian.
Dengan keupayaan generasi baharu dan kemunculan, satu model boleh menyelesaikan masalah yang berbeza dalam banyak senario. Pada era hari ini, model besar kecerdasan buatan adalah penjana Sebelum penciptaan enjin, negara-negara di Timur Tengah tidak begitu kaya, dan nilai minyak tidak begitu hebat. Sama seperti hari ini, data boleh ditukar menjadi bahan api dan keupayaan, dan keupayaan ini boleh digunakan untuk memperkasakan beribu-ribu industri.
Mengapa Yunzhisheng dapat melancarkan model besar yang dibangunkan sendiri dalam tempoh yang singkat?
Selepas melihat AlphaGo pada 2016, kami melaksanakan produk perubatan di hospital untuk membantu doktor di Hospital Kolej Perubatan Kesatuan Peking dan meningkatkan kecekapan kerja mereka. Dalam senario hospital, hanya alat kecekapan tidak mencukupi Kecerdasan sebenar kecerdasan buatan ialah kecerdasan kognitif telah dicadangkan pada tahun 2017. Kecerdasan kognitif memerlukan kuasa pengkomputeran yang agak berkuasa.
Dengan asas ini, saya telah mengumpul banyak pengalaman dalam kedua-dua aspek akademik dan kejuruteraan. Bagi individu, pengalaman ini adalah keupayaan anda untuk mencari rezeki, tetapi bagi syarikat, ia adalah daya saing teras untuk menang dalam pasaran. Selepas melihat rangka kerja ChatGPT, kami mendapati bahawa tiada satu pun daripadanya yang baharu, dan kesemuanya adalah gabungan kejuruteraan sedia ada Kami dengan cepat menggabungkan keupayaan ini dan melaburkannya dalam pembangunan model besar.
Kami mengeluarkan model komersial besar tiga hari lalu yang dipanggil Shanhai. Selepas menjalani pra-latihan, penalaan halus arahan dan pembelajaran pengukuhan berdasarkan maklum balas manusia, kami melihat keupayaan muncul yang telah lama ditunggu-tunggu. Pada masa itu, pasukan itu berfikir untuk memberinya nama yang saya kerap mengembara pada masa itu dan menganggap nama itu cukup bagus. Lautnya megah, dan kapasitinya besar, mencerminkan keupayaan generatif yang tidak terhingga bagi model besar yang tinggi, dan kita tahu apa yang boleh dikatakan dan apa yang tidak boleh dikatakan Ini adalah tepat untuk menekankan kedua-dua keupayaan generatif model besar dan model berskala besar isu pematuhan keselamatan.
Terdapat fenomena yang sangat menarik Semua orang bercakap tentang model besar Perhatian domestik terhadap model besar bermula selepas Festival Musim Bunga, tetapi tiada siapa yang bercakap mengenainya dan mereka tidak pasti. Sehingga hari ini, ada pandangan bahawa perkara ini tidak boleh dilakukan hanya dengan teknologi Walaupun orang berada di tempat, kos latihan sangat tinggi dan ia sangat mahal. Model besar bukanlah revolusi saintifik atau ciptaan algoritma baru, tetapi gabungan algoritma sedia ada untuk menjadikannya lebih besar, kebanyakannya datang dengan kos, dan sudah tentu terdapat banyak projek yang terlibat. Intinya betul.
Sebaliknya, jika anda berpendapat bahawa model berskala besar akan menjadi peluang besar dalam 10-20 tahun akan datang, tetapi BAT tidak boleh melabur di dalamnya dan berputus asa, saya rasa masih ada peluang.
Dalam beberapa tahun kebelakangan ini, Yun Zhisheng tidak memerlukan saintis yang sangat baik, malah saya berpendapat bahawa perkara ini bukanlah sesuatu yang dilakukan oleh saintis dan tidak tahu di mana lokasinya mesti teruk. Pengilang dengan senario adalah yang paling mungkin berjaya.
Nama Shanhai juga mempunyai makna lain yang anda cintai dipisahkan oleh gunung dan laut, dan gunung dan lautan boleh diratakan.
Kuasa gunung dan lautan ialah decathlon. Keupayaan penjanaan adalah sangat subjektif Keupayaan pemahaman bahasa adalah sangat penting apabila adegan itu dilaksanakan pada masa lalu. Peningkatan keupayaan pengekodan boleh membantu meningkatkan keupayaan penaakulan model besar, dan hasil output mesti mematuhi undang-undang domestik, peraturan dan juga nilai moral. Kami juga menggunakan seni bina pemalam GPT-4 untuk membantu perusahaan dan pelanggan dengan perkhidmatan sehenti daripada pemilihan data, latihan model dan penggunaan model.
Mengapa model besar mempunyai keupayaan penaakulan logik yang kompleks? Kami melakukannya hari ini, tetapi saya tidak tahu mengapa Sukar untuk mengatakan sama ada 50 bilion parameter atau 100 bilion parameter adalah lebih baik Mungkin neuron dalam 100 bilion parameter belum diaktifkan lagi.
Selain itu, terdapat penjagaan perubatan Pada mulanya, kami melakukan model berskala besar. Kami mencabar salah satu senario yang paling serius - penjagaan perubatan Melalui peringkat pra-latihan, kami mengumpul banyak kesusasteraan perubatan, monograf, buku dan rekod perubatan, dan mengumpul berpuluh-puluh juta data berlabel sebenar, yang boleh ditukar. ke dalam data penalaan halus kami.
Selain itu, kami juga memenangi hadiah pertama Anugerah Kemajuan Sains dan Teknologi Beijing pada 2019. Projek yang menang adalah teknologi utama dan aplikasi pembinaan graf pengetahuan berskala besar. Kami mempunyai salah satu graf pengetahuan perubatan terbesar China Kami menguraikan graf pengetahuan kepada pengetahuan Pemalam dibenamkan ke dalam model bahasa yang besar, menjadikan model besar menjadi pakar dalam bidang perubatan.
MedQA ialah set ujian soalan dan jawapan pengetahuan perubatan yang sangat berwibawa, termasuk Med-PaLM, ChatGPT dan GPT-4 Google. Mereka semua telah mengumumkan keputusan penilaian mereka pada set ujian ini . , yang sangat melebihi 71 mata GPT-4. Selepas peningkatan domain, model besar boleh diubah menjadi pakar dalam bidang tertentu. Terdapat satu lagi nombor yang boleh digunakan untuk perbandingan mendatar Skor AI tertinggi yang diketahui untuk lulusan sekolah perubatan untuk lulus peperiksaan pengamal klinikal ialah 456 mata. Ini adalah kebolehan super yang diperolehi oleh model besar. .
Agak sukar untuk membina model yang besar Ambangnya sangat tinggi Selain banyak wang, jurutera algoritma dan algoritma yang sangat baik, ia juga memerlukan banyak kebolehan laut. Secara intuitif, model besar itu sendiri adalah set data yang besar, dan model besar adalah tugas jurutera Mengapa Yunzhisheng boleh menghasilkan data penilaian yang sangat berwibawa dan objektif dalam beberapa bulan penilaian dalaman kami bukan sahaja dari segi perubatan dan bidang umum, Yunzhisheng adalah salah satu yang terbaik.
Platform kuasa pengkomputeran bukan hanya tentang membeli berapa banyak kad untuk dipasang. Yunzhisheng mempunyai hampir 200P kuasa pengkomputeran Kecekapan menggunakan kluster telah mencapai tahap teratas dalam industri Ia boleh menggunakan sedikit kad untuk melatih dengan cepat Model kami.
Penggunaan kluster GPU semasa kami boleh mencapai 50%. Model besar juga perlu mencapai latihan selari hibrid 3D. Apa itu 3D? Ia adalah penyelarasan model, data dan saluran paip. Di samping itu, banyak pengoptimuman telah dibuat dalam penaakulan model, dan kelajuan penaakulan telah meningkat sebanyak 5 kali ganda Bagaimana untuk memisahkan kad latihan dan kad inferens adalah A800, dan kad inferens boleh mencapai penaakulan pantas satu kad A6000.
Selain itu, data adalah sangat penting, saiz data, kepelbagaian data dan kualiti data yang tinggi Kami kini boleh menyokong tahap 10T penyahduplikasian pantas Nombor latihan ChatGPT ialah 45T, tetapi selepas pengoptimuman, ratusan G data digunakan.
Dengan keupayaan ini, kami boleh menggunakan keupayaan Atlas dan UniDataOps untuk memberi perkhidmatan yang lebih baik kepada pelanggan industri Shanhai.
Smart Internet of Things juga merupakan perniagaan penting syarikat Kami mempunyai banyak pelaksanaan Hasil yang digunakan pada masa lalu memang tidak begitu baik Produk Internet of Things.
Penjagaan perubatan adalah arah yang kami optimistik. Dalam arahan perubatan yang lalu, produk ini mempunyai dua aspek Pertama, daripada menaip pada papan kekunci dengan tangan, seseorang boleh bercakap terus dengan mikrofon, yang meningkatkan kecekapan kerja doktor dan memendekkan masa memasukkan perubatan. rekod dari 3 jam hingga 1 jam; Kedua, selepas mempunyai rekod perubatan, terdapat juga sistem untuk menyemak rekod perubatan melalui otak AI untuk memeriksa sama ada terdapat sebarang kesilapan dalam rekod perubatan itu mempunyai keupayaan model yang besar?
Visi Shanhai adalah untuk mencipta dunia yang saling berkaitan dan intuitif melalui kecerdasan buatan Pada masa lalu, takrifan kecerdasan buatan adalah untuk menjadikan mesin patuh kepada manusia. Komunikasi antara orang dan benda akan menjadi lebih intuitif, dan keupayaan baharu akan membawa produk baharu dan model perniagaan baharu Saya amat bersedia untuk mengalu-alukan era baharu model besar dengan semua orang di sini.
Imbas kod QR untuk menyertai Dark Horse Entrepreneur Exchange Group
↓↓↓
Imbas kod QR di bawah
Sertai Kem Industri AIGC Kuda Hitam
Fahami logik asas AIGC dan sambungkan kepada masa depan industri dalam satu langkah
↓↓↓
Kongsi, suka dan tonton untuk melengkapkan kombo tiga klik dan menyampaikan kandungan yang baik kepada lebih ramai orang yang memerlukannya.
Lebih banyak kandungan menarik tersedia di Akaun Video i Dark Horse
↓↓↓
Ikuti Matriks Komunikasi Kuda Gelap dan dapatkan kandungan yang lebih menarik
↓↓ ↓
Atas ialah kandungan terperinci Biarkan mesin menjadi antropomorfik, daripada 'kerencatan mental buatan' kepada 'kecerdasan buatan'. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Pembelajaran mesin ialah cabang penting kecerdasan buatan yang memberikan komputer keupayaan untuk belajar daripada data dan meningkatkan keupayaan mereka tanpa diprogramkan secara eksplisit. Pembelajaran mesin mempunyai pelbagai aplikasi dalam pelbagai bidang, daripada pengecaman imej dan pemprosesan bahasa semula jadi kepada sistem pengesyoran dan pengesanan penipuan, dan ia mengubah cara hidup kita. Terdapat banyak kaedah dan teori yang berbeza dalam bidang pembelajaran mesin, antaranya lima kaedah yang paling berpengaruh dipanggil "Lima Sekolah Pembelajaran Mesin". Lima sekolah utama ialah sekolah simbolik, sekolah sambungan, sekolah evolusi, sekolah Bayesian dan sekolah analogi. 1. Simbolisme, juga dikenali sebagai simbolisme, menekankan penggunaan simbol untuk penaakulan logik dan ekspresi pengetahuan. Aliran pemikiran ini percaya bahawa pembelajaran adalah proses penolakan terbalik, melalui sedia ada

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Menurut berita dari laman web ini pada 1 Ogos, SK Hynix mengeluarkan catatan blog hari ini (1 Ogos), mengumumkan bahawa ia akan menghadiri Global Semiconductor Memory Summit FMS2024 yang akan diadakan di Santa Clara, California, Amerika Syarikat dari 6 hingga 8 Ogos, mempamerkan banyak produk penjanaan teknologi baru. Pengenalan kepada Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage), dahulunya Sidang Kemuncak Memori Flash (FlashMemorySummit) terutamanya untuk pembekal NAND, dalam konteks peningkatan perhatian kepada teknologi kecerdasan buatan, tahun ini dinamakan semula sebagai Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage) kepada jemput vendor DRAM dan storan serta ramai lagi pemain. Produk baharu SK hynix dilancarkan tahun lepas

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S
