Rumah Peranti teknologi AI Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

Sep 05, 2023 pm 12:01 PM
teori Model perubatan Universiti Fudan

Dengan peningkatan teleperubatan, pesakit semakin cenderung untuk memilih perundingan dan perundingan dalam talian untuk mendapatkan sokongan perubatan yang mudah dan cekap. Baru-baru ini, model bahasa besar (LLM) telah menunjukkan keupayaan interaksi bahasa semula jadi yang kuat, membawa harapan untuk kesihatan dan pembantu perubatan untuk memasuki kehidupan orang ramai


Senario perundingan perubatan dan kesihatan biasanya diperlukan kepada Pembantu yang rumit dan peribadi. mempunyai pengetahuan perubatan yang luas dan kebolehan untuk memahami niat pesakit melalui beberapa pusingan dialog dan memberikan respons profesional dan terperinci. Apabila menghadapi perundingan perubatan dan kesihatan, model bahasa universal sering mengelak daripada bercakap atau menjawab soalan secara salah kerana kekurangan pengetahuan perubatan pada masa yang sama, mereka cenderung untuk menyelesaikan perundingan pada pusingan soalan semasa dan kekurangan keupayaan penyoalan pelbagai pusingan yang memuaskan. Di samping itu, set data perubatan Cina berkualiti tinggi pada masa ini sangat jarang berlaku, yang menimbulkan cabaran untuk melatih model bahasa yang berkuasa dalam bidang perubatan.

Makmal Perisikan Data dan Pengkomputeran Sosial Universiti Fudan (FudanDISC) mengeluarkan pembantu peribadi perubatan dan kesihatan Cina - DISC-MedLLM. Dalam penilaian perundingan perubatan dan kesihatan bagi soal jawab pusingan tunggal dan dialog berbilang pusingan, prestasi model menunjukkan kelebihan yang jelas berbanding model dialog perubatan besar sedia ada. Pasukan penyelidik juga mengeluarkan set data penyeliaan halus (SFT) berkualiti tinggi - DISC-Med-SFT yang mengandungi 470,000 orang Parameter model dan laporan teknikal juga merupakan sumber terbuka.

  • Alamat halaman utama: https://med.fudan-disc.com
  • Alamat Github: https://github.com/FudanDISC/DISC-MedLLM
  • Laporan Teknikal
  • //arxiv.org/abs/2308.14346

1. Contoh paparan

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

contoh


1.

Apabila pesakit rasa tidak sihat, mereka boleh Bertanya model untuk menerangkan simptom anda, dan model akan memberikan sebab yang mungkin, pelan rawatan yang disyorkan, dsb. sebagai rujukan Apabila maklumat kurang, ia akan meminta penerangan terperinci tentang gejala. Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi


Figure 2: Dialog dalam senario -senario usul juga boleh bertanya soalan konsultasi khusus model berdasarkan keadaan kesihatan mereka sendiri, dan model akan memberikan jawapan yang terperinci dan bermanfaat bertanya soalan secara proaktif apabila maklumat kurang untuk meningkatkan kesesuaian dan ketepatan respons.

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

Figure 3: Dialog berdasarkan perundingan mengenai status kesihatan seseorang sendiri, juga boleh bertanya tentang pengetahuan perubatan yang tidak ada kaitan dengan diri mereka sendiri. seprofesional mungkin untuk menjadikan pengguna komprehensif dan tepat memahami.

. Model perubatan besar yang dilatih pada domain umum model besar Cina Baichuan-13B. Perlu diingat bahawa data latihan dan kaedah latihan kami boleh disesuaikan dengan mana-mana model besar asas.
DISC-MedLLM mempunyai tiga ciri utama:
Kepakaran yang boleh dipercayai dan kaya. Kami menggunakan graf pengetahuan perubatan sebagai sumber maklumat untuk membina sampel dialog dengan mensampel tiga kali ganda dan menggunakan keupayaan bahasa model besar umum.
Keupayaan soal siasat untuk berbilang pusingan dialog. Kami menggunakan rekod dialog perundingan sebenar sebagai sumber maklumat dan menggunakan model besar untuk membina semula dialog Semasa proses pembinaan, model diperlukan untuk menyelaraskan sepenuhnya maklumat perubatan dalam dialog.

Selaraskan respons kepada pilihan manusia. Pesakit berharap untuk mendapatkan maklumat sokongan dan pengetahuan latar belakang yang lebih kaya semasa proses perundingan, tetapi jawapan doktor manusia selalunya ringkas melalui pemeriksaan manual, kami membina sampel arahan berskala kecil yang berkualiti tinggi untuk diselaraskan dengan keperluan pesakit.

Kelebihan model dan rangka kerja pembinaan data ditunjukkan dalam Rajah 5. Kami mengira taburan sebenar pesakit daripada senario perundingan sebenar untuk membimbing pembinaan sampel set data Berdasarkan graf pengetahuan perubatan dan data perundingan sebenar, kami menggunakan dua idea: model-dalam-gelung besar dan orang-dalam-. gelung untuk membina set data.
  • Rajah 5: Pembinaan DISC-Med-SFT
3. Kaedah: Pembinaan set data DISC-Med-SFT

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi dalam proses latihan model, kami menambah DISC-Med-SFT dengan set data domain umum dan sampel data daripada korpora sedia ada, membentuk DISC-Med-SFT-ext.


Jadual 1: Pengenalan kepada kandungan data DISC-Med-SFT-ext

Set data doktor-pesakit AI yang dibina semula.

. 400,000 dan 20,000 sampel telah dipilih secara rawak daripada dua set data awam, MedDialog dan cMedQA2, masing-masing, sebagai sampel sumber untuk pembinaan set data SFT.

Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

Pemfaktoran semula. Untuk melaraskan jawapan doktor dunia sebenar kepada jawapan berformat seragam berkualiti tinggi yang diperlukan, kami menggunakan GPT-3.5 untuk melengkapkan proses pembinaan semula set data ini. Gesaan memerlukan penulisan semula untuk mengikut prinsip berikut:

Alih keluar ungkapan lisan, ekstrak ungkapan bersatu dan betulkan ketidakkonsistenan dalam penggunaan bahasa doktor.

Berpegang pada maklumat penting dalam jawapan doktor asal dan berikan penjelasan yang sesuai agar lebih komprehensif dan logik.
Tulis semula atau padamkan jawapan yang tidak sepatutnya dihantar oleh doktor AI, seperti meminta pesakit membuat temu janji.

Rajah 6 menunjukkan contoh pemfaktoran semula. Jawapan doktor yang diselaraskan adalah konsisten dengan identiti pembantu perubatan AI, mematuhi maklumat penting yang diberikan oleh doktor asal sambil memberikan bantuan yang lebih kaya dan lebih komprehensif kepada pesakit.
  • Rajah 6: Contoh penulisan semula dialog dijana sampel latihan QA. Berdasarkan CMeKG, kami membuat sampel dalam graf pengetahuan mengikut maklumat jabatan nod penyakit, dan menggunakan model GPT-3.5 Prompts yang direka bentuk sesuai untuk menjana sejumlah lebih daripada 50,000 sampel dialog adegan perubatan yang pelbagai.

    Set Data Keutamaan Tingkah Laku
    Di peringkat akhir latihan, untuk meningkatkan lagi prestasi model, kami menggunakan set data yang lebih selaras dengan keutamaan tingkah laku manusia untuk penyeliaan menengah penalaan halus. Kira-kira 2000 sampel berkualiti tinggi dan pelbagai telah dipilih secara manual daripada dua set data MedDialog dan cMedQA2 Selepas menulis semula beberapa contoh dan menyemaknya secara manual kepada GPT-4, kami menggunakan kaedah sampel kecil untuk memberikannya kepada GPT-3.5, menjana tinggi. -set data keutamaan tingkah laku berkualiti.
    Lain-lain

    Data am. Untuk memperkayakan kepelbagaian set latihan dan mengurangkan risiko kemerosotan model dalam keupayaan asas semasa peringkat latihan SFT, kami memilih secara rawak beberapa sampel daripada dua set data penalaan halus yang diselia, moss-sft-003 dan data gpt4 alpaca. zh.
    MedMCQA. Untuk meningkatkan keupayaan Soal Jawab model, kami memilih MedMCQA, set data soalan aneka pilihan dalam bidang perubatan Inggeris dan menggunakan GPT-3.5 untuk mengoptimumkan soalan dan jawapan yang betul dalam soalan aneka pilihan, menjana kira-kira 8,000 orang Cina profesional. sampel Soal Jawab perubatan.
    4. Eksperimen

    latihan. Seperti yang ditunjukkan dalam rajah di bawah, proses latihan DISC-MedLLM dibahagikan kepada dua peringkat SFT.


    Rajah 7: Proses latihan dua peringkat

    Penilaian. Prestasi LLM perubatan dinilai dalam dua senario, iaitu QA pusingan tunggal dan dialog berbilang pusingan.

    Penilaian QA pusingan tunggal: Untuk menilai ketepatan model dari segi pengetahuan perubatan, kami mengambil sampel 1500 sampel daripada Peperiksaan Kelayakan Perubatan Kebangsaan China (NMLEC) dan Peperiksaan Kemasukan Lepasan Siswazah Kebangsaan (NEEP). ) Perubatan Barat 306 soalan utama + aneka pilihan untuk menilai prestasi model dalam satu pusingan QA. Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

    Penilaian dialog pelbagai pusingan: Untuk menilai secara sistematik keupayaan dialog model, kami menggunakan tiga set data awam - Penanda Aras Perubatan Cina (CMB-Clin), Set Data Dialog Perubatan Cina (CMD) dan Data Hasrat Perubatan Cina Pilih sampel secara rawak daripada set (CMID) dan biarkan GPT-3.5 memainkan peranan pesakit dan berdialog dengan model Empat penunjuk penilaian dicadangkan - inisiatif, ketepatan, kegunaan dan kualiti bahasa, yang dijaringkan oleh GPT-4.

    Semak keputusan
    1. Bandingkan model. Model kami dibandingkan dengan tiga LLM am dan dua LLM perbualan perubatan Cina. Termasuk GPT-3.5, GPT-4, Baichuan-13B-Chat OpenAI, BianQue-2 dan HuatuoGPT-13B;

    Keputusan QA pusingan tunggal. Keputusan keseluruhan penilaian aneka pilihan ditunjukkan dalam Jadual 2. GPT-3.5 menunjukkan petunjuk yang jelas. DISC-MedLLM mencapai tempat kedua dalam tetapan sampel kecil dan menduduki tempat ketiga di belakang Baichuan-13B-Chat dalam tetapan sampel sifar. Terutama, kami mengatasi prestasi HuatuoGPT (13B) yang dilatih dengan tetapan pembelajaran pengukuhan.

    Jadual 2: Keputusan penilaian aneka pilihan

    Hasil beberapa pusingan dialog. Dalam penilaian CMB-Clin, DISC-MedLLM mencapai skor keseluruhan tertinggi, diikuti rapat oleh HuatuoGPT. Model kami mendapat markah tertinggi dalam kriteria positif, menonjolkan keberkesanan pendekatan latihan kami yang berat sebelah corak tingkah laku perubatan. Keputusan ditunjukkan dalam Jadual 3.

    Jadual 3: Keputusan CMB-clin

    Dalam sampel CMD, seperti yang ditunjukkan dalam Rajah 8, GPT-4 memperoleh markah tertinggi, diikuti oleh GPT-3.5. Model dalam bidang perubatan, DISC-MedLLM dan HuatuoGPT, mempunyai skor prestasi keseluruhan yang sama, dan prestasi mereka dalam jabatan yang berbeza adalah cemerlang.

    Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

    Rajah 8: Keputusan CMD

    Situasi CMID adalah serupa dengan CMD, seperti yang ditunjukkan dalam Rajah 9, GPT-3.5 dan GPT Kecuali untuk siri GPT, DISC-MedLLM menunjukkan prestasi terbaik. Ia mengatasi HuatuoGPT dalam tiga niat: keadaan, rejimen rawatan dan ubat.

    Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi

    Rajah 9: Keputusan CMID

    Prestasi setiap model yang tidak konsisten antara CMB-Clin dan CMD/CMID mungkin disebabkan oleh tiga set data yang berbeza ini. CMD dan CMID mengandungi sampel soalan yang lebih eksplisit, dan pesakit mungkin sudah mempunyai diagnosis dan menyatakan keperluan yang jelas apabila menerangkan simptom, dan soalan dan keperluan pesakit mungkin tidak ada kaitan dengan status kesihatan peribadi mereka. Model tujuan umum GPT-3.5 dan GPT-4, yang cemerlang dalam banyak aspek, adalah lebih baik dalam mengendalikan situasi ini.

    5 Ringkasan

    Data data DISC-Med-SFT mengambil kesempatan daripada kelebihan dan keupayaan dialog dunia sebenar dan aspek LLM umum, dan menjalankan tiga peningkatan domain, dalam tiga peningkatan domain. dialog perubatan Kemahiran dan keutamaan manusia; set data berkualiti tinggi melatih model besar perubatan DISC-MedLLM, yang mencapai peningkatan ketara dalam interaksi perubatan, menunjukkan kebolehgunaan yang tinggi, dan menunjukkan potensi aplikasi yang hebat.

    Penyelidikan dalam bidang ini akan membawa lebih banyak prospek dan kemungkinan untuk mengurangkan kos perubatan dalam talian, mempromosikan sumber perubatan, dan mencapai keseimbangan. DISC-MedLLM akan membawa perkhidmatan perubatan yang mudah dan diperibadikan kepada lebih ramai orang dan menyumbang kepada punca kesihatan umum.

Atas ialah kandungan terperinci Pasukan Universiti Fudan mengeluarkan pembantu peribadi perubatan dan kesihatan China, manakala sumber terbuka 470,000 set data berkualiti tinggi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Menerobos sempadan pengesanan kecacatan tradisional, 'Spektrum Kecacatan' mencapai ketepatan ultra tinggi dan pengesanan kecacatan industri semantik yang kaya buat kali pertama. Menerobos sempadan pengesanan kecacatan tradisional, 'Spektrum Kecacatan' mencapai ketepatan ultra tinggi dan pengesanan kecacatan industri semantik yang kaya buat kali pertama. Jul 26, 2024 pm 05:38 PM

Dalam pembuatan moden, pengesanan kecacatan yang tepat bukan sahaja kunci untuk memastikan kualiti produk, tetapi juga teras untuk meningkatkan kecekapan pengeluaran. Walau bagaimanapun, set data pengesanan kecacatan sedia ada selalunya tidak mempunyai ketepatan dan kekayaan semantik yang diperlukan untuk aplikasi praktikal, menyebabkan model tidak dapat mengenal pasti kategori atau lokasi kecacatan tertentu. Untuk menyelesaikan masalah ini, pasukan penyelidik terkemuka yang terdiri daripada Universiti Sains dan Teknologi Hong Kong Guangzhou dan Teknologi Simou telah membangunkan set data "DefectSpectrum" secara inovatif, yang menyediakan anotasi berskala besar yang kaya dengan semantik bagi kecacatan industri. Seperti yang ditunjukkan dalam Jadual 1, berbanding set data industri lain, set data "DefectSpectrum" menyediakan anotasi kecacatan yang paling banyak (5438 sampel kecacatan) dan klasifikasi kecacatan yang paling terperinci (125 kategori kecacatan

Model dialog NVIDIA ChatQA telah berkembang kepada versi 2.0, dengan panjang konteks disebut pada 128K Model dialog NVIDIA ChatQA telah berkembang kepada versi 2.0, dengan panjang konteks disebut pada 128K Jul 26, 2024 am 08:40 AM

Komuniti LLM terbuka ialah era apabila seratus bunga mekar dan bersaing Anda boleh melihat Llama-3-70B-Instruct, QWen2-72B-Instruct, Nemotron-4-340B-Instruct, Mixtral-8x22BInstruct-v0.1 dan banyak lagi. model yang cemerlang. Walau bagaimanapun, berbanding dengan model besar proprietari yang diwakili oleh GPT-4-Turbo, model terbuka masih mempunyai jurang yang ketara dalam banyak bidang. Selain model umum, beberapa model terbuka yang mengkhusus dalam bidang utama telah dibangunkan, seperti DeepSeek-Coder-V2 untuk pengaturcaraan dan matematik, dan InternVL untuk tugasan bahasa visual.

Latihan dengan berjuta-juta data kristal untuk menyelesaikan masalah fasa kristalografi, kaedah pembelajaran mendalam PhAI diterbitkan dalam Sains Latihan dengan berjuta-juta data kristal untuk menyelesaikan masalah fasa kristalografi, kaedah pembelajaran mendalam PhAI diterbitkan dalam Sains Aug 08, 2024 pm 09:22 PM

Editor |KX Sehingga hari ini, perincian dan ketepatan struktur yang ditentukan oleh kristalografi, daripada logam ringkas kepada protein membran yang besar, tidak dapat ditandingi oleh mana-mana kaedah lain. Walau bagaimanapun, cabaran terbesar, yang dipanggil masalah fasa, kekal mendapatkan maklumat fasa daripada amplitud yang ditentukan secara eksperimen. Penyelidik di Universiti Copenhagen di Denmark telah membangunkan kaedah pembelajaran mendalam yang dipanggil PhAI untuk menyelesaikan masalah fasa kristal Rangkaian saraf pembelajaran mendalam yang dilatih menggunakan berjuta-juta struktur kristal tiruan dan data pembelauan sintetik yang sepadan boleh menghasilkan peta ketumpatan elektron yang tepat. Kajian menunjukkan bahawa kaedah penyelesaian struktur ab initio berasaskan pembelajaran mendalam ini boleh menyelesaikan masalah fasa pada resolusi hanya 2 Angstrom, yang bersamaan dengan hanya 10% hingga 20% daripada data yang tersedia pada resolusi atom, manakala Pengiraan ab initio tradisional

Google AI memenangi pingat perak IMO Mathematical Olympiad, model penaakulan matematik AlphaProof telah dilancarkan dan pembelajaran pengukuhan kembali Google AI memenangi pingat perak IMO Mathematical Olympiad, model penaakulan matematik AlphaProof telah dilancarkan dan pembelajaran pengukuhan kembali Jul 26, 2024 pm 02:40 PM

Bagi AI, Olimpik Matematik tidak lagi menjadi masalah. Pada hari Khamis, kecerdasan buatan Google DeepMind menyelesaikan satu kejayaan: menggunakan AI untuk menyelesaikan soalan sebenar IMO Olimpik Matematik Antarabangsa tahun ini, dan ia hanya selangkah lagi untuk memenangi pingat emas. Pertandingan IMO yang baru berakhir minggu lalu mempunyai enam soalan melibatkan algebra, kombinatorik, geometri dan teori nombor. Sistem AI hibrid yang dicadangkan oleh Google mendapat empat soalan dengan betul dan memperoleh 28 mata, mencapai tahap pingat perak. Awal bulan ini, profesor UCLA, Terence Tao baru sahaja mempromosikan Olimpik Matematik AI (Anugerah Kemajuan AIMO) dengan hadiah berjuta-juta dolar Tanpa diduga, tahap penyelesaian masalah AI telah meningkat ke tahap ini sebelum Julai. Lakukan soalan secara serentak pada IMO Perkara yang paling sukar untuk dilakukan dengan betul ialah IMO, yang mempunyai sejarah terpanjang, skala terbesar dan paling negatif

Pandangan alam semula jadi: Ujian kecerdasan buatan dalam perubatan berada dalam keadaan huru-hara Apa yang perlu dilakukan? Pandangan alam semula jadi: Ujian kecerdasan buatan dalam perubatan berada dalam keadaan huru-hara Apa yang perlu dilakukan? Aug 22, 2024 pm 04:37 PM

Editor |. ScienceAI Berdasarkan data klinikal yang terhad, beratus-ratus algoritma perubatan telah diluluskan. Para saintis sedang membahaskan siapa yang harus menguji alat dan cara terbaik untuk melakukannya. Devin Singh menyaksikan seorang pesakit kanak-kanak di bilik kecemasan mengalami serangan jantung semasa menunggu rawatan untuk masa yang lama, yang mendorongnya untuk meneroka aplikasi AI untuk memendekkan masa menunggu. Menggunakan data triage daripada bilik kecemasan SickKids, Singh dan rakan sekerja membina satu siri model AI untuk menyediakan potensi diagnosis dan mengesyorkan ujian. Satu kajian menunjukkan bahawa model ini boleh mempercepatkan lawatan doktor sebanyak 22.3%, mempercepatkan pemprosesan keputusan hampir 3 jam bagi setiap pesakit yang memerlukan ujian perubatan. Walau bagaimanapun, kejayaan algoritma kecerdasan buatan dalam penyelidikan hanya mengesahkan perkara ini

Untuk menyediakan tanda aras dan sistem penilaian menjawab soalan saintifik dan kompleks baharu untuk model besar, UNSW, Argonne, University of Chicago dan institusi lain bersama-sama melancarkan rangka kerja SciQAG Untuk menyediakan tanda aras dan sistem penilaian menjawab soalan saintifik dan kompleks baharu untuk model besar, UNSW, Argonne, University of Chicago dan institusi lain bersama-sama melancarkan rangka kerja SciQAG Jul 25, 2024 am 06:42 AM

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

PRO |. Mengapa model besar berdasarkan MoE lebih patut diberi perhatian? PRO |. Mengapa model besar berdasarkan MoE lebih patut diberi perhatian? Aug 07, 2024 pm 07:08 PM

Pada tahun 2023, hampir setiap bidang AI berkembang pada kelajuan yang tidak pernah berlaku sebelum ini. Pada masa yang sama, AI sentiasa menolak sempadan teknologi trek utama seperti kecerdasan yang terkandung dan pemanduan autonomi. Di bawah trend berbilang modal, adakah status Transformer sebagai seni bina arus perdana model besar AI akan digoncang? Mengapakah penerokaan model besar berdasarkan seni bina MoE (Campuran Pakar) menjadi trend baharu dalam industri? Bolehkah Model Penglihatan Besar (LVM) menjadi satu kejayaan baharu dalam penglihatan umum? ...Daripada surat berita ahli PRO 2023 laman web ini yang dikeluarkan dalam tempoh enam bulan lalu, kami telah memilih 10 tafsiran khas yang menyediakan analisis mendalam tentang aliran teknologi dan perubahan industri dalam bidang di atas untuk membantu anda mencapai matlamat anda dalam bidang baharu. tahun. Tafsiran ini datang dari Week50 2023

Kadar ketepatan mencapai 60.8%. Model ramalan retrosintesis kimia Universiti Zhejiang berdasarkan Transformer diterbitkan dalam sub-jurnal Nature Kadar ketepatan mencapai 60.8%. Model ramalan retrosintesis kimia Universiti Zhejiang berdasarkan Transformer diterbitkan dalam sub-jurnal Nature Aug 06, 2024 pm 07:34 PM

Editor |. KX Retrosynthesis ialah tugas kritikal dalam penemuan ubat dan sintesis organik, dan AI semakin digunakan untuk mempercepatkan proses. Kaedah AI sedia ada mempunyai prestasi yang tidak memuaskan dan kepelbagaian terhad. Dalam amalan, tindak balas kimia sering menyebabkan perubahan molekul tempatan, dengan pertindihan yang besar antara bahan tindak balas dan produk. Diilhamkan oleh ini, pasukan Hou Tingjun di Universiti Zhejiang mencadangkan untuk mentakrifkan semula ramalan retrosintetik satu langkah sebagai tugas penyuntingan rentetan molekul, secara berulang menapis rentetan molekul sasaran untuk menghasilkan sebatian prekursor. Dan model retrosintetik berasaskan penyuntingan EditRetro dicadangkan, yang boleh mencapai ramalan berkualiti tinggi dan pelbagai. Eksperimen yang meluas menunjukkan bahawa model itu mencapai prestasi cemerlang pada set data penanda aras standard USPTO-50 K, dengan ketepatan 1 teratas 60.8%.

See all articles