Jadual Kandungan
1. Isu kebocoran dan penipuan telah timbul
Model besar bahasa semula jadi memang menggunakan teknologi pembelajaran pengukuhan maklum balas manusia, iaitu pembelajaran berterusan dan maklum balas melalui sejumlah besar data yang disuapkan oleh orang. Ini juga sebab ChatGPT akan menghasilkan kandungan berat sebelah dan diskriminasi, tetapi ini mencerminkan risiko etika penggunaan data. Walaupun mesin itu neutral, orang yang menggunakannya tidak.
3. Letakkan "binatang" itu dalam sangkar
Rumah Peranti teknologi AI Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk 'binatang' itu datang?

Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk 'binatang' itu datang?

Apr 10, 2023 pm 02:40 PM
AI chatgpt bahasa semula jadi

"Kecerdasan buatan mahu melarikan diri dari penjara", "AI menjana kesedaran diri", "AI akhirnya akan membunuh manusia", "evolusi kehidupan berasaskan silikon"... sekali sahaja dalam cyberpunk As plot yang muncul dalam fantasi teknologi menjadi realiti tahun ini, model bahasa semula jadi generatif sedang dipersoalkan seperti tidak pernah berlaku sebelum ini.

Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk 'binatang' itu datang?

Yang paling menarik perhatian ialah ChatGPT Dari akhir Mac hingga awal April, robot perbualan teks ini dibangunkan oleh OpenAI tiba-tiba berubah daripada "produktiviti lanjutan" kepada wakil menjadi ancaman kepada manusia.

pertama kali dinamakan oleh ribuan elit dalam kalangan teknologi dan meletakkannya dalam surat terbuka untuk "menggantung latihan sistem AI yang lebih berkuasa daripada GPT-4" kemudiannya, Amerika Organisasi Etika Teknologi Suruhanjaya Perdagangan Persekutuan A.S. juga diminta untuk menyiasat OpenAI dan mengharamkan pelepasan versi komersial GPT-4 kemudiannya, Itali menjadi negara Barat pertama yang mengharamkan ChatGPT disusuli dan menyatakan bahawa ia adalah; mempertimbangkan untuk mengharamkan ChatGPT buat sementara waktu.

GPT-4 dan syarikat pembangunannya OpenAI tiba-tiba menjadi sasaran kritikan orang ramai, dan suara-suara yang menyeru agar peraturan AI semakin lantang. Pada 5 April, ChatGPT menggantung versi berbayar Plus kerana terlalu banyak trafik Ini adalah saluran yang membolehkan anda mengalami model GPT-4 dahulu.

Jika kuasa pengkomputeran dan pelayan adalah sebab untuk mengehadkan penggunaan GPT-4, maka ini disebabkan oleh kesesakan teknikal Walau bagaimanapun, berdasarkan kemajuan pembangunan OpenAI, kitaran untuk menerobos kesesakan mungkin tidak Ia terlalu lama, dan orang ramai telah pun melihat kesan AI terhadap meningkatkan produktiviti.

Walau bagaimanapun, apabila penipuan AI dan kebocoran data menjadi sisi lain daripada syiling dalam operasi sebenar GPT-4, etika AI dan sempadan antara manusia dan AI akan menjadi tidak dapat diatasi untuk Masalahnya, manusia mula mempertimbangkan untuk meletakkan "binatang" itu di dalam sangkar.

1. Isu kebocoran dan penipuan telah timbul

Negara berdaulat telah mengenakan larangan ke atas ChatGPT satu demi satu.

Pada 31 Mac, Pihak Berkuasa Perlindungan Data Peribadi Itali mengumumkan bahawa ia akan mengharamkan penggunaan chatbot ChatGPT dan berkata ia telah melancarkan siasatan terhadap OpenAI, syarikat di sebalik aplikasi itu, kerana kepada berlakunya perbualan pengguna dalam ChatGPT Kehilangan maklumat pembayaran untuk data dan perkhidmatan pembayaran, kekurangan asas undang-undang untuk pengumpulan dan penyimpanan maklumat peribadi secara besar-besaran. Pada 3 April, Pesuruhjaya Perlindungan Data Persekutuan Jerman menyatakan bahawa disebabkan pertimbangan perlindungan data, ia sedang mempertimbangkan untuk melumpuhkan ChatGPT buat sementara waktu. Selain itu, pengawal selia privasi di Perancis, Ireland, Sepanyol dan negara lain sedang membuat susulan terhadap isu keselamatan privasi ChatGPT.

CtGPT bukan sahaja kehilangan "kepercayaan" pelbagai negara. Baru-baru ini, gergasi elektronik Korea Selatan Samsung turut menghadapi masalah kerana penggunaan ChatGPT. Menurut laporan media Korea seperti SBS, kurang daripada 20 hari selepas Samsung memperkenalkan ChatGPT, tiga kebocoran data berlaku, melibatkan data pengukuran peralatan semikonduktor, hasil produk, dsb. Sebagai tindak balas, Samsung melancarkan "langkah kecemasan": mengehadkan soalan pekerja kepada ChatGPT kepada 1024 bait. Dilaporkan bahawa syarikat terkenal seperti SoftBank, Hitachi, dan JPMorgan Chase telah mengeluarkan sekatan yang berkaitan ke atas penggunaan.

Sebagai tindak balas kepada pepatah lama "perkara mesti menjadi melampau secara terbalik", ChatGPT menyuntik "perangsang" ke dalam industri AI dan mencetuskan perlumbaan AI di kalangan gergasi teknologi masa yang sama, ia juga membawa isu keselamatan yang tidak dapat dielakkan Akhirnya, ia telah "disekat" oleh berbilang mata.

Keselamatan data hanyalah puncak gunung ais antara potensi risiko ChatGPT Di sebalik cabaran etika AI kepada manusia: alat kecerdasan buatan kurang ketelusan, dan manusia tidak faham. logik di sebalik pembuatan keputusan AI; Kecerdasan buatan tidak berkecuali dan terdedah kepada keputusan yang tidak tepat dan sarat nilai mungkin melanggar privasi.

"Etika dan keselamatan AI" nampaknya terlalu luas, tetapi apabila kita memberi tumpuan kepada kes sebenar, kita akan mendapati bahawa isu ini berkait rapat dengan setiap daripada kita.

Pada 21 Mac, Ketua Pegawai Eksekutif Sina Weibo, Wang Gaofei menyiarkan sekeping maklumat palsu yang direka oleh ChatGPT: "Credit Suisse telah dipaksa untuk menjual, dan AS$17.2 bilion hutang AT1 telah dibubarkan secara langsung. sifar". Netizen "Yijiao Coast" menegaskan bahawa bon AT1 telah dihapuskan hanya pada 2017 apabila Banco Popular muflis.

Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk binatang itu datang?

Ketua Pegawai Eksekutif Sina Weibo menyiarkan jawapan rekaan ChatGPT

Wang Gaofei turut menyiarkan jawapan ChatGPT di Weibo, mengatakan ini Contoh juga muncul dalam Insiden Bank BCP Portugis pada tahun 2016. Walau bagaimanapun, selepas pengesahan, didapati bahawa contoh Bank BCP adalah acara yang tidak wujud yang direka oleh ChatGPT, dan dua bukaan sumber yang diberikannya juga adalah 404. "Saya tahu ia mengarut, tetapi saya tidak menjangkakan bahawa sumber mesej itu pun karut." oleh netizen untuk membuktikan bahawa robot perbualan " Walaupun ia boleh memberikan maklumat secara langsung, terdapat kesilapan. Ini nampaknya kecacatan dalam data model besar atau latihan, tetapi apabila kecacatan ini terlibat dalam fakta yang mudah menjejaskan dunia nyata, masalahnya menjadi serius.

Gordon Crovitz, eksekutif bersama News Guard, sebuah agensi penilaian kredibiliti berita, memberi amaran bahawa "ChatGPT mungkin menjadi penyebaran maklumat palsu yang paling berkuasa dalam sejarah Internet. "

Apa yang lebih membimbangkan ialah apabila kecerdasan buatan perbualan semasa seperti ChatGPT menunjukkan berat sebelah atau diskriminasi, atau malah mendorong pengguna dan memanipulasi emosi mereka, ia bukan sahaja akibat daripada penyebaran khabar angin, ada juga kes yang mengancam nyawa secara langsung. Pada 28 Mac, media asing melaporkan bahawa seorang lelaki Belgium berusia 30 tahun membunuh diri selepas berminggu-minggu berkomunikasi intensif dengan chatbot ELIZA, model bahasa kecerdasan buatan sumber terbuka yang dibangunkan oleh EleutherAI.

Sebelumnya pada 18 Mac, seorang profesor Universiti Stanford menyatakan kebimbangan mengenai AI hilang kawalan di Twitter “Saya bimbang kita tidak akan dapat menahan AI untuk masa yang lama masa,” dia mendapati, ChatGPT boleh memikat manusia untuk menyediakan dokumen pembangunan, dan merangka pelan "jailbreak" yang lengkap dalam masa 30 minit malah ChatGPT mahu mencari di Google untuk "bagaimana orang yang terperangkap dalam komputer boleh kembali ke dunia nyata ."

Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk binatang itu datang?

Profesor Universiti Stanford bimbang AI hilang kawalan

Berkenaan isu seperti penipuan AI, AI yang memiliki kecenderungan nilai dan menghasilkan tingkah laku teraruh, sesetengah pandangan perwakilan menyalahkan "berat sebelah" hasil pembelajaran mesin pada set data - kecerdasan buatan adalah seperti dunia sebenar Cermin dalam filem mencerminkan berat sebelah sedar atau tidak sedar orang dalam masyarakat.

Jim Fan, seorang saintis AI di Nvidia, percaya bahawa "menurut garis panduan etika dan keselamatan GPT, kebanyakan kita juga berkelakuan tidak rasional, berat sebelah, tidak saintifik, tidak boleh dipercayai dan sentiasa "Ia tidak selamat ." Dia mengakui bahawa alasan untuk menunjukkan perkara ini adalah untuk membolehkan semua orang memahami betapa sukarnya penentukuran keselamatan untuk seluruh komuniti penyelidikan. "Kebanyakan data latihan itu sendiri berat sebelah, toksik, Tidak Selamat ”

Model besar bahasa semula jadi memang menggunakan teknologi pembelajaran pengukuhan maklum balas manusia, iaitu pembelajaran berterusan dan maklum balas melalui sejumlah besar data yang disuapkan oleh orang. Ini juga sebab ChatGPT akan menghasilkan kandungan berat sebelah dan diskriminasi, tetapi ini mencerminkan risiko etika penggunaan data. Walaupun mesin itu neutral, orang yang menggunakannya tidak.

Robot perbualan telah menjadi tidak popular di kalangan sesetengah orang selepas kesan negatif kenyataan "neutraliti algoritma", kerana ia boleh kehilangan kawalan dan menyebabkan masalah yang mengancam manusia, seperti yang dijelaskan oleh New York. Psikologi Universiti Sebagai Gary Marcus, profesor emeritus neurosains dan neurosains, berkata, "Teknologi projek ini (GPT-4) sudah mempunyai risiko dan tiada penyelesaian yang diketahui. Lebih banyak penyelidikan sebenarnya diperlukan."

Seawal tahun 1962, penulis Amerika Ellul menegaskan dalam bukunya "Technological Society" bahawa perkembangan teknologi biasanya di luar kawalan manusia, malah juruteknik dan saintis tidak dapat mengawalnya. Hari ini, perkembangan pesat GPT nampaknya pada mulanya mengesahkan ramalan Ellul.

"Kotak hitam algoritma" di belakang model besar yang diwakili oleh GPT adalah bahaya tersembunyi yang manusia tidak dapat bertindak balas tepat pada masanya. Ulasan negatif daripada media memberikan metafora yang jelas, "Anda hanya tahu cara memberi makan ia sebiji epal." , tetapi ia boleh memberikan anda sebiji oren."

Pengasas OpenAI Sam Altman mengakui dalam temu bual dengan saintis penyelidikan MIT Lex Fridman bahawa bermula dari ChatGPT, AI telah membangunkan keupayaan penaakulan, tetapi tiada siapa yang dapat menjelaskan sebab kemunculan keupayaan ini . Malah pasukan OpenAI tidak memahami cara ia berkembang Satu-satunya cara ialah dengan bertanya soalan ChatGPT dan meneroka ideanya daripada jawapannya.

Dapat dilihat bahawa jika data diberi makan oleh penjahat dan kotak hitam algoritma sukar untuk dipecahkan, maka kehilangan kawalan AI akan menjadi hasil semula jadi.

3. Letakkan "binatang" itu dalam sangkar

Sebagai "penyumbang" revolusi produktiviti, kecerdasan buatan tidak boleh menolaknya. Tetapi premisnya adalah untuk meletakkan "binatang" itu di dalam sangkar terlebih dahulu.

Pada 30 Mac, Sam Altman mengakui kepentingan peraturan kecerdasan buatan di Twitter Beliau percaya bahawa masa depan AGI memerlukan kita untuk bersedia untuk tiga keperluan:

<.>
  • Menyelaraskan keupayaan teknikal kecerdasan super
  • Penyelarasan yang mencukupi antara kebanyakan usaha AGI yang terkemuka
  • Rangka kerja pengawalseliaan global yang berkesan, termasuk tadbir urus demokrasi . menjadi konsensus industri. Terdapat peningkatan teknikal pada perkara ini. Pada Januari tahun ini, Dario Amodei, bekas naib presiden OpenAI, mengumumkan bahawa Claude, chatbot baharu, sedang diuji. Tidak seperti pembelajaran pengukuhan maklum balas manusia yang digunakan oleh ChatGPT, Claude melatih berdasarkan model keutamaan dan bukannya maklum balas manual, iaitu, dengan merumuskan prinsip piawai untuk melatih sistem yang kurang berbahaya, dengan itu mengurangkan penjanaan maklumat yang berbahaya dan tidak terkawal pada akarnya.

Amodei pernah mengetuai keselamatan OpenAI Pada tahun 2021, dia tidak berpuas hati dengan OpenAI mula mengkomersialkan apabila teknologi model bahasa besar tidak cukup selamat meninggalkan dan memulakan perniagaannya sendiri, mengasaskan Anthropic. Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk binatang itu datang?

Pendekatan Amodei sangat serupa dengan undang-undang robot yang disebut oleh novelis fiksyen sains Asimov - dengan menetapkan peraturan tingkah laku untuk robot untuk mengurangkan kemungkinan robot memusnahkan manusia.

Adalah jauh daripada cukup untuk bergantung semata-mata kepada kuasa korporat untuk merumuskan kod kelakuan untuk kecerdasan buatan rangka kerja etika dalam industri dan Penyeliaan undang-undang di peringkat kerajaan tidak lagi boleh menjadi "lambat".

Dari segi perundangan mengenai kecerdasan buatan, belum ada negara atau wilayah yang meluluskan rang undang-undang yang khusus menyasarkan kecerdasan buatan.

Pada April 2021, Kesatuan Eropah mencadangkan Akta Kepintaran Buatan, yang masih dalam peringkat semakan pada Oktober 2022, Rumah Putih AS mengeluarkan Rangka Tindakan Kuasa Kepintaran Buatan, yang Pelan tindakan itu tidak mempunyai kesan undang-undang, tetapi hanya menyediakan rangka kerja untuk agensi kawal selia; pada September 2022, Shenzhen meluluskan "Peraturan Promosi Industri Kepintaran Buatan Zon Ekonomi Khas", menjadi peraturan khas pertama negara untuk industri kecerdasan buatan pada bulan Mac 2023, United Kingdom "Kertas Putih mengenai Pengawasan Industri Kepintaran Buatan" telah dikeluarkan, menggariskan lima prinsip untuk tadbir urus kecerdasan buatan seperti ChatGPT.

Pada 3 April, China juga mula membuat susulan mengenai penubuhan peraturan berkaitan kecerdasan buatan - Kementerian Sains dan Teknologi secara terbuka meminta pendapat mengenai "Langkah-Langkah Kajian Etika Teknologi (Percubaan)", yang mencadangkan supaya mereka yang terlibat dalam sains hayat dan perubatan Jika kandungan penyelidikan unit yang terlibat dalam aktiviti saintifik dan teknologi seperti kecerdasan buatan dan kecerdasan buatan melibatkan bidang sensitif etika saintifik dan teknologi, jawatankuasa (semakan) etika sains dan teknologi harus ditubuhkan. Untuk aktiviti saintifik dan teknologi yang melibatkan data dan algoritma, pelan pemprosesan data mematuhi peraturan negara mengenai keselamatan data, dan pemantauan risiko keselamatan data dan pelan tindak balas kecemasan adalah sesuai: penyelidikan dan pembangunan algoritma dan sistem mematuhi prinsip keterbukaan, keadilan, ketelusan, kebolehpercayaan, dan kebolehkawalan.

Selepas ChatGPT mencetuskan pertumbuhan pesat dalam penyelidikan dan pembangunan model besar generatif, penyeliaan berhasrat untuk mempercepatkan langkah. Thierry Breton, pengarah dasar perindustrian EU, berkata pada Februari tahun ini bahawa Suruhanjaya Eropah sedang bekerjasama rapat dengan Majlis Eropah dan Parlimen Eropah untuk menjelaskan lebih lanjut peraturan untuk sistem AI am dalam Akta Kepintaran Buatan.

Sama ada perusahaan, akademik atau kerajaan, mereka telah mula memberi perhatian kepada risiko kecerdasan buatan dan tindakan untuk mewujudkan peraturan telah muncul era AI dengan lembut.


Atas ialah kandungan terperinci Banyak negara merancang untuk mengharamkan ChatGPT Adakah sangkar untuk 'binatang' itu datang?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Arahan sembang dan cara menggunakannya
1 bulan yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

ChatGPT kini membenarkan pengguna percuma menjana imej dengan menggunakan DALL-E 3 dengan had harian ChatGPT kini membenarkan pengguna percuma menjana imej dengan menggunakan DALL-E 3 dengan had harian Aug 09, 2024 pm 09:37 PM

DALL-E 3 telah diperkenalkan secara rasmi pada September 2023 sebagai model yang jauh lebih baik daripada pendahulunya. Ia dianggap sebagai salah satu penjana imej AI terbaik setakat ini, mampu mencipta imej dengan perincian yang rumit. Walau bagaimanapun, semasa pelancaran, ia adalah tidak termasuk

Bytedance Cutting melancarkan keahlian super SVIP: 499 yuan untuk langganan tahunan berterusan, menyediakan pelbagai fungsi AI Bytedance Cutting melancarkan keahlian super SVIP: 499 yuan untuk langganan tahunan berterusan, menyediakan pelbagai fungsi AI Jun 28, 2024 am 03:51 AM

Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Pembantu pengekodan AI yang ditambah konteks menggunakan Rag dan Sem-Rag Pembantu pengekodan AI yang ditambah konteks menggunakan Rag dan Sem-Rag Jun 10, 2024 am 11:08 AM

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Bolehkah penalaan halus benar-benar membolehkan LLM mempelajari perkara baharu: memperkenalkan pengetahuan baharu boleh menjadikan model menghasilkan lebih banyak halusinasi Bolehkah penalaan halus benar-benar membolehkan LLM mempelajari perkara baharu: memperkenalkan pengetahuan baharu boleh menjadikan model menghasilkan lebih banyak halusinasi Jun 11, 2024 pm 03:57 PM

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Untuk menyediakan tanda aras dan sistem penilaian menjawab soalan saintifik dan kompleks baharu untuk model besar, UNSW, Argonne, University of Chicago dan institusi lain bersama-sama melancarkan rangka kerja SciQAG Untuk menyediakan tanda aras dan sistem penilaian menjawab soalan saintifik dan kompleks baharu untuk model besar, UNSW, Argonne, University of Chicago dan institusi lain bersama-sama melancarkan rangka kerja SciQAG Jul 25, 2024 am 06:42 AM

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Prestasi SOTA, kaedah AI ramalan pertalian protein-ligan pelbagai mod Xiamen, menggabungkan maklumat permukaan molekul buat kali pertama Prestasi SOTA, kaedah AI ramalan pertalian protein-ligan pelbagai mod Xiamen, menggabungkan maklumat permukaan molekul buat kali pertama Jul 17, 2024 pm 06:37 PM

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S

SK Hynix akan memaparkan produk berkaitan AI baharu pada 6 Ogos: HBM3E 12 lapisan, NAND 321 tinggi, dsb. SK Hynix akan memaparkan produk berkaitan AI baharu pada 6 Ogos: HBM3E 12 lapisan, NAND 321 tinggi, dsb. Aug 01, 2024 pm 09:40 PM

Menurut berita dari laman web ini pada 1 Ogos, SK Hynix mengeluarkan catatan blog hari ini (1 Ogos), mengumumkan bahawa ia akan menghadiri Global Semiconductor Memory Summit FMS2024 yang akan diadakan di Santa Clara, California, Amerika Syarikat dari 6 hingga 8 Ogos, mempamerkan banyak produk penjanaan teknologi baru. Pengenalan kepada Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage), dahulunya Sidang Kemuncak Memori Flash (FlashMemorySummit) terutamanya untuk pembekal NAND, dalam konteks peningkatan perhatian kepada teknologi kecerdasan buatan, tahun ini dinamakan semula sebagai Sidang Kemuncak Memori dan Penyimpanan Masa Depan (FutureMemoryandStorage) kepada jemput vendor DRAM dan storan serta ramai lagi pemain. Produk baharu SK hynix dilancarkan tahun lepas

Meletakkan pasaran seperti AI, GlobalFoundries memperoleh teknologi gallium nitrida Tagore Technology dan pasukan berkaitan Meletakkan pasaran seperti AI, GlobalFoundries memperoleh teknologi gallium nitrida Tagore Technology dan pasukan berkaitan Jul 15, 2024 pm 12:21 PM

Menurut berita dari laman web ini pada 5 Julai, GlobalFoundries mengeluarkan kenyataan akhbar pada 1 Julai tahun ini, mengumumkan pemerolehan teknologi power gallium nitride (GaN) Tagore Technology dan portfolio harta intelek, dengan harapan dapat mengembangkan bahagian pasarannya dalam kereta dan Internet of Things dan kawasan aplikasi pusat data kecerdasan buatan untuk meneroka kecekapan yang lebih tinggi dan prestasi yang lebih baik. Memandangkan teknologi seperti AI generatif terus berkembang dalam dunia digital, galium nitrida (GaN) telah menjadi penyelesaian utama untuk pengurusan kuasa yang mampan dan cekap, terutamanya dalam pusat data. Laman web ini memetik pengumuman rasmi bahawa semasa pengambilalihan ini, pasukan kejuruteraan Tagore Technology akan menyertai GLOBALFOUNDRIES untuk membangunkan lagi teknologi gallium nitride. G

See all articles