2022 menyaksikan banyak kejayaan terobosan dalam bidang AI/ML. Syarikat teknologi besar seperti Google, Meta dan Microsoft membuat kemajuan besar dalam inovasi baharu daripada pengkomputeran kuantum kepada kecerdasan buatan generatif.
Sebagai contoh, beberapa kejayaan terbesar termasuk HyperTreeProofSearch (HTPS) Meta untuk menyelesaikan masalah Olimpik Matematik Antarabangsa dan ESMFold Meta AI untuk ramalan lipatan protein Google untuk mensimulasikan hubungan antara fenotip; kesan berubah-ubah dan meningkatkan kajian persatuan seluruh genom (GWAS), dsb.
Seterusnya, mari lihat beberapa ramalan untuk 2023.
ChatGPT telah menarik perhatian Internet dengan keupayaan perbualan yang sangat baik. Ia dibina di atas GPT-3 OpenAI, yang mempunyai 176 bilion parameter dan bergantung pada saiz model yang lebih besar. Walaupun terdapat LLM lain dengan dua, tiga atau sepuluh kali ganda parameter GPT-3, sesetengah model DeepMind atau Meta (juga dikenali sebagai model bahasa kecil (SLM)) mempunyai lebih banyak parameter daripada GPT-3 dalam penaakulan dan ramalan logik pada pelbagai tugas.
Selain mengurangkan saiz model, dijangka model yang lebih besar, seperti GPT-4, akan mempunyai kira-kira 100 trilion parameter. Memandangkan model terbesar pada masa ini ialah model Google Switch Transformer dengan 1.6 trilion parameter, lonjakan itu akan menjadi besar.
Walau bagaimanapun, untuk mencapai kependaman dan kebolehramalan yang lebih besar, beberapa tahun akan datang boleh melihat model sedia ada diperhalusi untuk memenuhi tujuan tertentu. Baru-baru ini, OpenAI memperhalusi GPT-3 menggunakan kemas kini DaVinci.
Penjanaan teks-ke-imej ialah aliran yang akan memecahkan carta pada tahun 2022. Model seperti DALL-E, Stable Diffusion dan Midjourney mendahului senarai dalam kalangan peminat yang ingin bereksperimen dengan seni janaan AI. Perbualan cepat beralih daripada teks ke imej ke teks ke video ke teks kepada apa-apa sahaja dan berbilang model telah dicipta yang juga boleh menjana model 3D.
Apabila model bahasa berkembang dan model penyebaran bertambah baik, aliran teks kepada apa-apa sahaja dijangka meningkat lebih tinggi. Set data yang tersedia secara umum menjadikan model AI generatif lebih berskala.
Set data ini memperkenalkan bahagian tentang kecerdasan buatan yang boleh dijelaskan, di mana sifat setiap imej yang digunakan untuk melatih model generatif ini menjadi kritikal.
Syarikat yang telah mengikuti trend menjana kecerdasan buatan telah mula menyediakannya sebagai perkhidmatan awan. Memandangkan LLM dan model generatif seperti GPT-3 dan DALL-E tersedia untuk umum, semakin mudah bagi perusahaan untuk menawarkannya sebagai perkhidmatan, yang menimbulkan FastSaaS.
Baru-baru ini, Shutterstock merancang untuk mengintegrasikan DALL-E 2 ke dalam platformnya, Microsoft VS Code menambah Copilot sebagai sambungan, TikTok mengumumkan penjana AI teks-ke-imej dalam apl, dan Canva melancarkan AI-on- its-platform Menjana fungsi.
Ini ialah trend membina superkomputer untuk bergantung pada penjanaan tugas dan menyediakan perkhidmatan kepada syarikat. Dengan set data dan model generatif yang semakin meningkat ini, permintaan untuk superkomputer semakin meningkat dan dijangka meningkat lagi. Dengan persaingan untuk FastSaaS, keperluan untuk pengkomputeran yang lebih baik dan berprestasi tinggi adalah perkara seterusnya.
NVIDIA dan Microsoft baru-baru ini bekerjasama untuk mencipta Quantum-2, platform superkomputer asli awan. Pada bulan Oktober, Tesla mengumumkan bahawa superkomputer Dojonya dibina sepenuhnya dari awal menggunakan cip yang dibangunkan oleh Tesla. Tidak lama lagi, nampaknya ia boleh memberikan akses kepada pelanggan perusahaan. Selain itu, Cerebras melancarkan Andromeda, superkomputer AI 13.5 juta teras yang memberikan lebih 1 exaflop kuasa pengkomputeran AI. Baru-baru ini, Jasper bekerjasama dengan Cerebras untuk mencapai prestasi yang lebih baik.
Seperti yang diramalkan oleh Hukum Moore, kuasa pemprosesan meningkat apabila saiz cip berkurangan. Jadi untuk superkomputer menjalankan model besar, mereka memerlukan cip yang lebih kecil, dan kami sudah melihat cip semakin kecil.
Dalam beberapa tahun kebelakangan ini, industri cip telah mendesak untuk pengecilan, dengan pengeluar sentiasa mencari cara untuk menjadikan cip lebih kecil dan lebih padat. Sebagai contoh, untuk cip M2 dan A16, Apple masing-masing menggunakan cip 5nm dan 4nm Dijangkakan TSMC akan membangunkan cip 3nm pada tahun 2023, yang akan meningkatkan kecekapan dan prestasi pembangunan algoritma AI/ML.
Memandangkan syarikat seperti NVIDIA, Google dan Microsoft menyediakan perkhidmatan perkakasan kepada awan, lebih banyak inovasi dalam bidang pengkomputeran kuantum pasti akan berlaku. Ini akan membolehkan syarikat teknologi kecil melatih, menguji dan membina model AI/ML tanpa memerlukan perkakasan berat.
Peningkatan pengkomputeran kuantum pada tahun-tahun akan datang pastinya harus disertakan oleh pembangun kerana penggunaannya akan meningkat dalam banyak bidang lain seperti penjagaan kesihatan, perkhidmatan kewangan, dll.
Dalam satu pengumuman baru-baru ini, komputer kuantum telah disambungkan kepada superkomputer terpantas Eropah untuk menggabungkan komputer klasik dan kuantum untuk menyelesaikan masalah dengan lebih cepat. Begitu juga, Nvidia juga telah mengeluarkan QODA - Seni Bina Peranti Dioptimumkan Kuantum secara ringkas, yang merupakan platform pertama untuk komputer klasik kuantum hibrid.
IBM baru-baru ini mengumumkan perkakasan dan perisian kuantum mereka pada Sidang Kemuncak Kuantum tahunan mereka 2022, menggariskan visi terobosan untuk superkomputeran berpusatkan kuantum menggunakan pemproses 433 bit kuantum (qubit). Pada Sidang Kemuncak Kepintaran Buatan Global, IBM mengumumkan bahawa tahun depan mereka akan menunjukkan sistem 1,000-qubit yang akan menjadi pengganggu untuk inovasi selanjutnya dalam pelbagai bidang.
Atas ialah kandungan terperinci Trend Pembangunan Kecerdasan Buatan TOP5 pada tahun 2023. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!