


TPC Alliance ditubuhkan: Menyasarkan model AI dengan lebih daripada satu trilion parameter untuk menggalakkan penemuan saintifik
Menurut berita pada 16 November, institusi penyelidikan saintifik terkemuka dalam industri, Pusat Pengkomputeran Besar Nasional AS dan banyak syarikat terkemuka dalam bidang AI, baru-baru ini bersama-sama menubuhkan Konsortium Trilion Parameter (TPC).
Dijana oleh DALL-E 3
Menurut laporan, laman web ini mengetahui bahawa TPC terdiri daripada Konsortium saintis dari makmal, institusi penyelidikan, akademia dan industri yang bekerjasama untuk memajukan model kecerdasan buatan untuk penemuan saintifik, dengan tumpuan khas pada model gergasi dengan trilion parameter atau lebih
TPC Alliance kini sedang berusaha untuk membangunkan seni bina model berskala dan strategi latihan, sambil menyusun dan menyusun data saintifik untuk latihan model bagi mengoptimumkan aplikasi perpustakaan AI pada platform pengkomputeran exascale semasa dan masa hadapan #🎜🎜 #
TPC bertujuan untuk mewujudkan terbuka komuniti penyelidik untuk membangunkan model AI generatif berskala besar untuk masalah saintifik dan kejuruteraan Khususnya, projek bersama akan dilancarkan untuk mengelakkan pertindihan kerja dan kaedah perkongsian, pendekatan, alat, pengetahuan dan aliran kerja. Dengan cara ini, konsortium berharap untuk memaksimumkan impak projek ini ke atas kecerdasan buatan dan komuniti saintifik yang lebih luas. Matlamat TPC adalah untuk membina rangkaian sumber, data dan kepakaran global. Sejak penubuhannya, konsortium telah menubuhkan beberapa kumpulan kerja untuk menangani kerumitan membina model kecerdasan buatan berskala besar Sumber pengkomputeran besar yang diperlukan untuk latihan akan disediakan oleh Jabatan Tenaga A.S. (JAS) dan beberapa rakan pengasas TPC di Jepun. , Eropah dan negara lain. Walaupun dengan sumber ini, latihan boleh mengambil masa berbulan-bulan. Rick Stevens, pengarah bersekutu untuk pengkomputeran, alam sekitar dan sains hayat di Makmal Kebangsaan Argonne Jabatan Tenaga A.S. dan profesor sains komputer di Universiti Chicago, berkata: “Di makmal kami dan dengan rakan sekerja di sekeliling dunia, Dengan kerjasama institusi rakan kongsi, pasukan kami mula membangunkan satu siri model kecerdasan buatan yang canggih untuk penyelidikan saintifik dan bersedia untuk melatih menggunakan sejumlah besar data saintifik yang belum diterokai sebelum ini.”Atas ialah kandungan terperinci TPC Alliance ditubuhkan: Menyasarkan model AI dengan lebih daripada satu trilion parameter untuk menggalakkan penemuan saintifik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



MetaFAIR bekerjasama dengan Harvard untuk menyediakan rangka kerja penyelidikan baharu untuk mengoptimumkan bias data yang dijana apabila pembelajaran mesin berskala besar dilakukan. Adalah diketahui bahawa latihan model bahasa besar sering mengambil masa berbulan-bulan dan menggunakan ratusan atau bahkan ribuan GPU. Mengambil model LLaMA270B sebagai contoh, latihannya memerlukan sejumlah 1,720,320 jam GPU. Melatih model besar memberikan cabaran sistemik yang unik disebabkan oleh skala dan kerumitan beban kerja ini. Baru-baru ini, banyak institusi telah melaporkan ketidakstabilan dalam proses latihan apabila melatih model AI generatif SOTA Mereka biasanya muncul dalam bentuk lonjakan kerugian Contohnya, model PaLM Google mengalami sehingga 20 lonjakan kerugian semasa proses latihan. Bias berangka adalah punca ketidaktepatan latihan ini,

Menurut berita pada 16 November, institusi penyelidikan saintifik terkemuka dalam industri, Pusat Pengkomputeran Besar Kebangsaan AS dan banyak syarikat terkemuka dalam bidang AI baru-baru ini telah bersama-sama menubuhkan Konsortium Trilion Parameter (TPC). Dijana oleh DALL-E3 Menurut laporan, laman web ini telah mengetahui bahawa TPC Alliance terdiri daripada saintis dari makmal, institusi penyelidikan saintifik, akademia dan industri di seluruh dunia Ia bertujuan untuk bersama-sama mempromosikan model kecerdasan buatan untuk penemuan saintifik, dan membayar perhatian khusus untuk memiliki Konsortium TPC sedang berusaha untuk membangunkan seni bina model dan strategi latihan yang boleh skala, sambil mengatur dan memilih data saintifik untuk latihan model untuk mengoptimumkan perpustakaan AI untuk platform pengkomputeran tahap exascale semasa dan masa hadapan

Menurut berita pada 15 November, Microsoft baru-baru ini melancarkan kaedah yang dipanggil "Everything of Thought" (XOT), yang diilhamkan oleh AlphaZero Google DeepMind, yang menggunakan rangkaian neural padat untuk meningkatkan keupayaan penaakulan model AI. Microsoft bekerjasama dengan Institut Teknologi Georgia dan Universiti Normal China Timur untuk membangunkan algoritma ini, yang menyepadukan pembelajaran pengukuhan dan keupayaan Carian Pokok Monte Carlo (MCTS) untuk meningkatkan lagi keberkesanan penyelesaian masalah dalam persekitaran membuat keputusan yang kompleks. Nota dari tapak ini: Pasukan penyelidik Microsoft menyatakan bahawa kaedah XOT boleh mengembangkan model bahasa pada masalah yang tidak biasa Dalam Gameof24, 8-Puzzle dan P

Menurut berita pada 26 Jun, DeepMind, anak syarikat Google, berkata bahawa syarikat itu telah membangunkan model kecerdasan buatan yang dipanggil RoboCat yang boleh mengawal lengan robot yang berbeza untuk melaksanakan satu siri tugas. Ini sahaja bukanlah sesuatu yang baru, tetapi DeepMind mendakwa bahawa model itu adalah yang pertama dapat menyelesaikan dan menyesuaikan diri dengan pelbagai tugas, dan melakukannya menggunakan robot dunia sebenar yang berbeza. RoboCat diilhamkan oleh model AI DeepMind lain, Gato, yang boleh menganalisis dan memproses teks, imej dan peristiwa. Data latihan RoboCat termasuk imej dan data pergerakan robot simulasi dan sebenar, yang datang daripada model kawalan robot lain dalam persekitaran maya, robot kawalan manusia

Menurut berita pada 10 Julai, Databricks baru-baru ini mengeluarkan model AI SDK yang digunakan oleh platform analisis data besar Spark Apabila pembangun menulis kod, mereka boleh memberikan arahan dalam bahasa Inggeris, dan pengkompil akan menukar arahan bahasa Inggeris ke dalam bahasa PySpark atau SQL. kod untuk meningkatkan kecekapan pembangun. ▲Sumber imej Laman web Databricks Dilaporkan bahawa Spark ialah alat analisis data besar sumber terbuka yang dimuat turun lebih daripada 1 bilion kali setahun dan digunakan di 208 negara dan wilayah di seluruh dunia. ▲Sumber imej Tapak web Databricks Databricks mengatakan bahawa pembantu kod AI Microsoft GitHubCopilot berkuasa, tetapi ambang untuk penggunaan juga agak tinggi Databricks' SDK secara relatifnya lebih universal dan lebih mudah digunakan.

Menurut berita pada 15 Disember, Google DeepMind baru-baru ini mengumumkan kaedah latihan model yang dipanggil "FunSearch", yang mendakwa boleh mengira satu siri "melibatkan bidang matematik dan sains komputer" termasuk "masalah peringkat atasan" dan "tinju". masalah". isu yang kompleks." Kandungan yang perlu ditulis semula ialah: ▲Sumber imej: Google DeepMind (selepas ini dirujuk sebagai DeepMind) Dilaporkan bahawa kaedah latihan model FunSearch terutamanya memperkenalkan sistem "Penilai" untuk model AI, dan AI model mengeluarkan satu siri "kaedah penyelesaian masalah kreatif" ", dan "penilai" bertanggungjawab untuk menilai kaedah penyelesaian masalah yang dikeluarkan oleh model. Selepas lelaran berulang, model AI dengan keupayaan matematik yang lebih kukuh boleh dilatih. DeepM Google

Microsoft mengumumkan syarat perkhidmatan AInya pada 16 Ogos dan mengumumkan bahawa syarat tersebut akan berkuat kuasa pada 30 September. Kandungan utama kemas kini ini adalah untuk AI generatif, terutamanya kandungan yang berkaitan dengan penggunaan pengguna yang berkaitan dan amalan pembangunan yang bertanggungjawab Microsoft menekankan bahawa pegawai itu tidak akan menyimpan rekod perbualan pengguna dan sembang Bing, dan data sembang ini tidak akan digunakan. . Lima mata dasar utama yang digunakan untuk melatih model AI untuk Sembang Perusahaan Bing meliputi pelbagai bidang, termasuk melarang pengguna daripada cuba membuat kejuruteraan terbalik model AI untuk menghalang pengungkapan komponen asas yang melarang pengekstrakan data melalui kaedah seperti mengikis web melainkan dibenarkan secara eksplisit; Klausa penting menyekat pengguna daripada menggunakan data AI untuk mencipta atau meningkatkan perkhidmatan AI yang lain Berikut ialah klausa yang ditambahkan oleh Microsoft.

Menurut berita pada 14 Jun, penyelidik Microsoft baru-baru ini menunjukkan model LLaVA-Med, yang digunakan terutamanya untuk penyelidikan bioperubatan dan boleh menyimpulkan keadaan patologi pesakit berdasarkan gambar CT dan X-ray. Dilaporkan bahawa penyelidik Microsoft telah bekerjasama dengan sekumpulan hospital dan memperoleh set data besar yang sepadan dengan teks imej bioperubatan untuk melatih model AI berbilang modal. Set data ini termasuk X-ray dada, MRI, histologi, patologi dan imej CT, dsb., dengan liputan yang agak komprehensif. ▲Sumber gambar Microsoft Microsoft menggunakan GPT-4, berdasarkan model bahasa VisionTransformer dan Vicuna, untuk melatih LLaVA-Med pada lapan GPU NVIDIA A100, yang mengandungi "semua maklumat pra-analisis untuk setiap imej",
