Rumah Peranti teknologi AI Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataan

Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataan

Sep 19, 2023 pm 08:33 PM
gpt-4 projek

Teknologi ringkasan automatik telah mencapai kemajuan yang ketara dalam beberapa tahun kebelakangan ini, terutamanya disebabkan oleh anjakan paradigma. Pada masa lalu, teknologi ini bergantung terutamanya pada penalaan halus diselia pada set data beranotasi, tetapi kini menggunakan model bahasa besar (LLM) untuk gesaan sifar tangkapan, seperti GPT-4. Melalui tetapan segera yang teliti, tanpa latihan tambahan, anda boleh mencapai kawalan yang baik ke atas panjang ringkasan, tema, gaya dan ciri lain

Tetapi satu aspek sering diabaikan: ketumpatan maklumat ringkasan. Secara teorinya, sebagai pemampatan teks lain, ringkasan harus lebih padat, iaitu, mengandungi lebih banyak maklumat, daripada fail sumber. Memandangkan kependaman tinggi penyahkodan LLM, adalah penting untuk merangkumi lebih banyak maklumat dengan lebih sedikit perkataan, terutamanya untuk aplikasi masa nyata.

Walau bagaimanapun, ketumpatan maklumat adalah soalan terbuka: jika abstrak mengandungi butiran yang tidak mencukupi, ia bersamaan dengan tiada maklumat jika ia mengandungi terlalu banyak maklumat tanpa menambah jumlah panjang, ia akan menjadi Tidak Dapat Difahami. Untuk menyampaikan lebih banyak maklumat dalam belanjawan token tetap, adalah perlu untuk menggabungkan pengabstrakan, pemampatan dan gabungan.

Dalam penyelidikan baru-baru ini, penyelidik dari Salesforce, MIT, dan lain-lain cuba menentukan had peningkatan kepadatan dengan meminta keutamaan manusia untuk satu set ringkasan yang dijana oleh GPT-4. Kaedah ini memberikan banyak inspirasi untuk meningkatkan "keupayaan ekspresi" model bahasa besar seperti GPT-4

Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataan

Pautan kertas: https://arxiv. org/pdf/2309.04269.pdf

Alamat set data: https://huggingface.co/datasets/griffin/chain_of_density

Secara khusus, penyelidik menggunakan setiap Purata bilangan entiti setiap token digunakan sebagai proksi untuk ketumpatan, menghasilkan ringkasan awal, jarang entiti. Kemudian, mereka secara berulang mengenal pasti dan menggabungkan 1-3 entiti yang hilang daripada ringkasan sebelumnya tanpa meningkatkan jumlah panjang (5 kali jumlah panjang). Setiap ringkasan mempunyai nisbah entiti kepada token yang lebih tinggi daripada ringkasan sebelumnya. Berdasarkan data keutamaan manusia, penulis akhirnya menentukan bahawa manusia lebih suka ringkasan yang hampir padat seperti ringkasan tulisan manusia, dan lebih padat daripada ringkasan yang dihasilkan oleh gesaan GPT-4 biasa

Sumbangan keseluruhan kajian boleh Diringkaskan dalam perkara berikut:

  • Kita perlu membangunkan kaedah iteratif berasaskan segera (CoD) untuk meningkatkan ketumpatan entiti ringkasan

    #🎜 🎜#
  • Penilaian ketumpatan ringkasan secara manual dan automatik dalam artikel CNN/Daily Mail untuk lebih memahami kemakluman (memihak kepada lebih banyak entiti) dan kejelasan (memihak kepada lebih banyak entiti)

    # 🎜🎜#
  • Abstrak GPT-4 sumber terbuka, anotasi dan satu set 5000 abstrak CoD tanpa nota untuk penilaian atau penghalusan.

Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataan

CoD Apakah maksudnya?

Pengarang merumuskan satu rantaian ketumpatan (CoD) Prompt, yang menjana ringkasan awal dan menjadikan ketumpatan entitinya terus meningkat. Khususnya, dalam bilangan interaksi yang tetap, set unik entiti penting dalam teks sumber dikenal pasti dan digabungkan ke dalam ringkasan sebelumnya tanpa menambah panjang.

Sampel gesaan dan output ditunjukkan dalam Rajah 2. Pengarang tidak menyatakan secara eksplisit jenis entiti, sebaliknya mentakrifkan entiti yang hilang sebagai:

    Berkaitan dengan cerita utama:
  • # 🎜🎜 #

    Spesifik: ringkas dan tepat (5 perkataan atau kurang); #Setia: hadir dalam artikel; Pengarang memilih 100 artikel secara rawak daripada set ujian ringkasan CNN/DailyMail untuk menjana ringkasan CoD. Untuk memudahkan rujukan, mereka membandingkan statistik ringkasan CoD dengan ringkasan rujukan titik tumpu khas dan ringkasan yang dijana oleh GPT-4 di bawah gesaan biasa: "Tulis ringkasan artikel yang sangat pendek. Tidak lebih daripada 70 patah perkataan." 🎜#
  • Statistik situasi

  • Dalam kajian, penulis merumuskan daripada dua aspek: data statistik langsung dan data statistik tidak langsung. Statistik langsung (token, entiti, ketumpatan entiti) dikawal secara langsung oleh CoD, manakala statistik tidak langsung ialah hasil sampingan yang dijangkakan daripada ketumpatan.
  • Statistik langsung. Seperti yang ditunjukkan dalam Jadual 1, langkah kedua mengurangkan panjang dengan purata 5 token (daripada 72 kepada 67) disebabkan oleh penyingkiran perkataan yang tidak perlu daripada ringkasan yang panjang lebar. Ketumpatan entiti bermula pada 0.089, pada mulanya lebih rendah daripada manusia dan Vanila GPT-4 (0.151 dan 0.122), dan akhirnya meningkat kepada 0.167 selepas 5 langkah ketumpatan. Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataanStatistik tidak langsung. Tahap abstraksi harus meningkat dengan setiap langkah CoD, kerana abstrak berulang kali ditulis semula untuk memberi ruang kepada setiap entiti tambahan. Penulis mengukur abstraksi menggunakan ketumpatan pengekstrakan: panjang persegi purata serpihan yang diekstrak (Grusky et al., 2018). Begitu juga, gabungan konsep harus meningkat secara monoton apabila entiti ditambahkan pada ringkasan panjang tetap. Penulis menyatakan tahap integrasi dengan purata bilangan ayat sumber yang sejajar dengan setiap ayat ringkasan. Untuk penjajaran, penulis menggunakan kaedah keuntungan relatif ROUGE (Zhou et al., 2018), yang menjajarkan ayat sumber dengan ayat sasaran sehingga keuntungan ROUGE relatif ayat tambahan tidak lagi positif. Mereka juga menjangkakan pengedaran kandungan, atau kedudukan dalam artikel dari mana kandungan ringkasan datang, akan berubah.

    Secara khusus, penulis menjangkakan bahawa abstrak CoD pada mulanya akan menunjukkan "lead bias" (Lead Bias) yang kuat, tetapi kemudian secara beransur-ansur mula memperkenalkan entiti dari tengah dan akhir artikel. Untuk mengukur ini, mereka menggunakan penjajaran dalam gabungan untuk menulis semula kandungan dalam bahasa Cina, tanpa ayat asal muncul dan mengukur purata kedudukan ayat merentas semua ayat sumber yang dijajarkan.

    Rajah 3 mengesahkan hipotesis ini: apabila langkah menulis semula meningkat, abstraksi meningkat (imej kiri menunjukkan ketumpatan pengekstrakan yang lebih rendah), kadar gabungan juga meningkat (imej tengah menunjukkan), dan abstrak mula memasukkan kandungan dari tengah dan akhir artikel (ditunjukkan di sebelah kanan). Menariknya, semua ringkasan CoD adalah lebih abstrak berbanding dengan ringkasan tulisan manusia dan ringkasan asas

    Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataan

    Apabila menulis semula kandungan, ia perlu ditulis semula dalam bahasa Cina, ayat asal tidak perlu muncul

    Untuk lebih baik Untuk memahami pertukaran ringkasan CoD, penulis menjalankan kajian manusia berasaskan keutamaan dan melakukan penilaian berasaskan penarafan menggunakan GPT-4.

    Keutamaan manusia. Khususnya, untuk 100 artikel yang sama (5 langkah *100 = 500 abstrak kesemuanya), pengarang secara rawak menunjukkan abstrak dan artikel CoD "yang dibuat semula" kepada empat pengarang pertama kertas kerja. Setiap annotator memberikan ringkasan kegemaran mereka berdasarkan definisi Stiennon et al. (2020) tentang "ringkasan yang baik." Jadual 2 melaporkan undian tempat pertama setiap annotator dalam peringkat CoD, serta ringkasan setiap annotator. Secara keseluruhannya, 61% daripada abstrak tempat pertama (23.0+22.5+15.5) melibatkan ≥3 langkah pemekatan. Nombor median langkah CoD pilihan adalah di tengah (3), dengan jangkaan nombor langkah 3.06.

    Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataan

    Berdasarkan kepadatan purata dalam langkah ketiga, kepadatan entiti pilihan semua calon CoD adalah lebih kurang 0.15. Seperti yang dapat dilihat daripada Jadual 1, ketumpatan ini konsisten dengan ringkasan yang ditulis oleh manusia (0.151), tetapi jauh lebih tinggi daripada ringkasan yang ditulis dengan GPT-4 Prompt biasa (0.122)

    metrik automatik. Sebagai tambahan kepada penilaian manusia (di bawah), pengarang menggunakan GPT-4 untuk menjaringkan ringkasan CoD (1-5 mata) sepanjang 5 dimensi: kemakluman, kualiti, koheren, kebolehatributan dan keseluruhan. Seperti yang ditunjukkan dalam Jadual 3, ketumpatan berkorelasi dengan kemakluman, tetapi sehingga had, dengan skor memuncak pada langkah 4 (4.74).

    Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataan

    Daripada purata skor setiap dimensi, langkah pertama dan terakhir CoD mempunyai skor terendah, manakala tiga langkah tengah mempunyai skor hampir (masing-masing 4.78, 4.77 dan 4.76).

    Analisis kualitatif. Terdapat pertukaran yang jelas antara koheren/kebolehbacaan abstrak dan kemakluman. Dua langkah CoD ditunjukkan dalam Rajah 4: ringkasan satu langkah dipertingkatkan dengan lebih terperinci, dan ringkasan langkah yang satu lagi terjejas. Secara purata, ringkasan CoD perantaraan paling baik mencapai keseimbangan ini, tetapi pertukaran ini masih perlu ditakrifkan dan dikira dengan tepat dalam kerja masa hadapan.

    Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataanUntuk butiran lanjut kertas, sila rujuk kertas asal.

Atas ialah kandungan terperinci Salesforce bekerjasama dengan penyelidik MIT untuk membuka tutorial semakan GPT-4 sumber terbuka untuk menyampaikan lebih banyak maklumat dengan lebih sedikit perkataan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
2 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Repo: Cara menghidupkan semula rakan sepasukan
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Cara mendapatkan biji gergasi
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun 'peringkat token' Daripada RLHF kepada DPO kepada TDPO, algoritma penjajaran model besar sudah pun 'peringkat token' Jun 24, 2024 pm 03:04 PM

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Dalam proses pembangunan kecerdasan buatan, kawalan dan bimbingan model bahasa besar (LLM) sentiasa menjadi salah satu cabaran utama, bertujuan untuk memastikan model ini adalah kedua-duanya. berkuasa dan selamat untuk masyarakat manusia. Usaha awal tertumpu kepada kaedah pembelajaran pengukuhan melalui maklum balas manusia (RL

Pengarang ControlNet mendapat satu lagi kejayaan! Seluruh proses menghasilkan lukisan daripada gambar, memperoleh 1.4k bintang dalam masa dua hari Pengarang ControlNet mendapat satu lagi kejayaan! Seluruh proses menghasilkan lukisan daripada gambar, memperoleh 1.4k bintang dalam masa dua hari Jul 17, 2024 am 01:56 AM

Ia juga merupakan video Tusheng, tetapi PaintsUndo telah mengambil laluan yang berbeza. Pengarang ControlNet LvminZhang mula hidup semula! Kali ini saya menyasarkan bidang lukisan. Projek baharu PaintsUndo telah menerima 1.4kstar (masih meningkat secara menggila) tidak lama selepas ia dilancarkan. Alamat projek: https://github.com/lllyasviel/Paints-UNDO Melalui projek ini, pengguna memasukkan imej statik, dan PaintsUndo secara automatik boleh membantu anda menjana video keseluruhan proses mengecat, daripada draf baris hingga produk siap . Semasa proses lukisan, perubahan garisan adalah menakjubkan Hasil akhir video sangat serupa dengan imej asal: Mari kita lihat lukisan lengkap.

Kerja selepas kematian Pasukan Penyelarasan Super OpenAI: Dua model besar bermain permainan, dan output menjadi lebih mudah difahami Kerja selepas kematian Pasukan Penyelarasan Super OpenAI: Dua model besar bermain permainan, dan output menjadi lebih mudah difahami Jul 19, 2024 am 01:29 AM

Jika jawapan yang diberikan oleh model AI tidak dapat difahami sama sekali, adakah anda berani menggunakannya? Memandangkan sistem pembelajaran mesin digunakan dalam bidang yang lebih penting, menjadi semakin penting untuk menunjukkan sebab kita boleh mempercayai output mereka, dan bila tidak mempercayainya. Satu cara yang mungkin untuk mendapatkan kepercayaan dalam output sistem yang kompleks adalah dengan menghendaki sistem menghasilkan tafsiran outputnya yang boleh dibaca oleh manusia atau sistem lain yang dipercayai, iaitu, difahami sepenuhnya sehingga apa-apa ralat yang mungkin boleh dilakukan. dijumpai. Contohnya, untuk membina kepercayaan dalam sistem kehakiman, kami memerlukan mahkamah memberikan pendapat bertulis yang jelas dan boleh dibaca yang menjelaskan dan menyokong keputusan mereka. Untuk model bahasa yang besar, kita juga boleh menggunakan pendekatan yang sama. Walau bagaimanapun, apabila mengambil pendekatan ini, pastikan model bahasa menjana

Mendahului senarai jurutera perisian AI sumber terbuka, penyelesaian tanpa ejen UIUC dengan mudah menyelesaikan masalah pengaturcaraan sebenar SWE-bench Mendahului senarai jurutera perisian AI sumber terbuka, penyelesaian tanpa ejen UIUC dengan mudah menyelesaikan masalah pengaturcaraan sebenar SWE-bench Jul 17, 2024 pm 10:02 PM

Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Semua pengarang kertas kerja ini adalah daripada pasukan guru Zhang Lingming di Universiti Illinois di Urbana-Champaign (UIUC), termasuk: Steven Code repair; pelajar kedoktoran tahun empat, penyelidik

Satu kejayaan ketara dalam Hipotesis Riemann! Tao Zhexuan amat mengesyorkan kertas kerja baharu daripada MIT dan Oxford, dan pemenang Fields Medal berusia 37 tahun mengambil bahagian Satu kejayaan ketara dalam Hipotesis Riemann! Tao Zhexuan amat mengesyorkan kertas kerja baharu daripada MIT dan Oxford, dan pemenang Fields Medal berusia 37 tahun mengambil bahagian Aug 05, 2024 pm 03:32 PM

Baru-baru ini, Hipotesis Riemann, yang dikenali sebagai salah satu daripada tujuh masalah utama milenium, telah mencapai kejayaan baharu. Hipotesis Riemann ialah masalah yang tidak dapat diselesaikan yang sangat penting dalam matematik, berkaitan dengan sifat tepat taburan nombor perdana (nombor perdana ialah nombor yang hanya boleh dibahagikan dengan 1 dan dirinya sendiri, dan ia memainkan peranan asas dalam teori nombor). Dalam kesusasteraan matematik hari ini, terdapat lebih daripada seribu proposisi matematik berdasarkan penubuhan Hipotesis Riemann (atau bentuk umumnya). Dalam erti kata lain, sebaik sahaja Hipotesis Riemann dan bentuk umumnya dibuktikan, lebih daripada seribu proposisi ini akan ditetapkan sebagai teorem, yang akan memberi kesan yang mendalam terhadap bidang matematik dan jika Hipotesis Riemann terbukti salah, maka antara cadangan ini sebahagian daripadanya juga akan kehilangan keberkesanannya. Kejayaan baharu datang daripada profesor matematik MIT Larry Guth dan Universiti Oxford

Penjanaan video tanpa had, perancangan dan membuat keputusan, penyebaran paksa penyepaduan ramalan token seterusnya dan penyebaran jujukan penuh Penjanaan video tanpa had, perancangan dan membuat keputusan, penyebaran paksa penyepaduan ramalan token seterusnya dan penyebaran jujukan penuh Jul 23, 2024 pm 02:05 PM

Pada masa ini, model bahasa berskala besar autoregresif menggunakan paradigma ramalan token seterusnya telah menjadi popular di seluruh dunia Pada masa yang sama, sejumlah besar imej dan video sintetik di Internet telah menunjukkan kepada kami kuasa model penyebaran. Baru-baru ini, pasukan penyelidik di MITCSAIL (salah seorang daripadanya ialah Chen Boyuan, pelajar PhD di MIT) berjaya menyepadukan keupayaan berkuasa model resapan jujukan penuh dan model token seterusnya, dan mencadangkan paradigma latihan dan pensampelan: Diffusion Forcing (DF). ). Tajuk kertas: DiffusionForcing:Next-tokenPredictionMeetsFull-SequenceDiffusion Alamat kertas: https:/

Kertas arXiv boleh disiarkan sebagai 'bertubi-tubi', platform perbincangan Stanford alphaXiv dalam talian, LeCun menyukainya Kertas arXiv boleh disiarkan sebagai 'bertubi-tubi', platform perbincangan Stanford alphaXiv dalam talian, LeCun menyukainya Aug 01, 2024 pm 05:18 PM

sorakan! Bagaimana rasanya apabila perbincangan kertas adalah perkataan? Baru-baru ini, pelajar di Universiti Stanford mencipta alphaXiv, forum perbincangan terbuka untuk kertas arXiv yang membenarkan soalan dan ulasan disiarkan terus pada mana-mana kertas arXiv. Pautan laman web: https://alphaxiv.org/ Malah, tidak perlu melawati tapak web ini secara khusus. Hanya tukar arXiv dalam mana-mana URL kepada alphaXiv untuk terus membuka kertas yang sepadan di forum alphaXiv: anda boleh mencari perenggan dengan tepat dalam. kertas itu, Ayat: Dalam ruang perbincangan di sebelah kanan, pengguna boleh menyiarkan soalan untuk bertanya kepada pengarang tentang idea dan butiran kertas tersebut Sebagai contoh, mereka juga boleh mengulas kandungan kertas tersebut, seperti: "Diberikan kepada

Latihan aksiomatik membolehkan LLM mempelajari penaakulan kausal: model 67 juta parameter adalah setanding dengan trilion tahap parameter GPT-4 Latihan aksiomatik membolehkan LLM mempelajari penaakulan kausal: model 67 juta parameter adalah setanding dengan trilion tahap parameter GPT-4 Jul 17, 2024 am 10:14 AM

Tunjukkan rantai sebab kepada LLM dan ia mempelajari aksiom. AI sudah pun membantu ahli matematik dan saintis menjalankan penyelidikan Contohnya, ahli matematik terkenal Terence Tao telah berulang kali berkongsi pengalaman penyelidikan dan penerokaannya dengan bantuan alatan AI seperti GPT. Untuk AI bersaing dalam bidang ini, keupayaan penaakulan sebab yang kukuh dan boleh dipercayai adalah penting. Penyelidikan yang akan diperkenalkan dalam artikel ini mendapati bahawa model Transformer yang dilatih mengenai demonstrasi aksiom transitiviti sebab pada graf kecil boleh digeneralisasikan kepada aksiom transitiviti pada graf besar. Dalam erti kata lain, jika Transformer belajar untuk melakukan penaakulan sebab yang mudah, ia boleh digunakan untuk penaakulan sebab yang lebih kompleks. Rangka kerja latihan aksiomatik yang dicadangkan oleh pasukan adalah paradigma baharu untuk pembelajaran penaakulan sebab berdasarkan data pasif, dengan hanya demonstrasi

See all articles