


Fahami dalam satu artikel: kaitan dan perbezaan antara AI, pembelajaran mesin dan pembelajaran mendalam
Dalam gelombang perubahan teknologi yang pesat hari ini, Kecerdasan Buatan (AI), Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) adalah seperti bintang terang, menerajui gelombang baharu teknologi maklumat. Ketiga-tiga perkataan ini sering muncul dalam pelbagai perbincangan dan aplikasi praktikal yang canggih, tetapi bagi kebanyakan peneroka yang baru dalam bidang ini, makna khusus dan hubungan dalaman mereka mungkin masih diselubungi misteri.
Kalau begitu mari kita lihat gambar ini dahulu.
Dapat dilihat bahawa terdapat korelasi rapat dan hubungan progresif antara pembelajaran mendalam, pembelajaran mesin dan kecerdasan buatan. Pembelajaran mendalam ialah bidang khusus pembelajaran mesin, yang merupakan komponen penting kecerdasan buatan. Hubungan dan promosi bersama antara bidang ini membolehkan pembangunan berterusan dan peningkatan teknologi kecerdasan buatan.
Apakah kecerdasan buatan?
Kecerdasan Buatan (AI) ialah konsep luas yang matlamat utamanya adalah untuk membangunkan sistem pengkomputeran yang boleh mensimulasikan, memanjangkan atau bahkan mengatasi kecerdasan manusia. Ia mempunyai aplikasi khusus dalam banyak bidang, seperti:
- Pengecaman Imej (Pengecaman Imej) ialah cabang penting AI, khusus untuk mengkaji cara membolehkan komputer memperoleh data melalui penderia visual, dan menganalisis berdasarkan data ini untuk mengenal pasti imej dalam imej. Objek, adegan, tingkah laku dan maklumat lain mensimulasikan proses pengecaman dan pemahaman isyarat visual oleh mata dan otak manusia.
- Pemprosesan Bahasa Asli (NLP) ialah keupayaan komputer untuk memahami dan menjana bahasa semula jadi manusia Ia merangkumi pelbagai tugas seperti klasifikasi teks, analisis semantik, terjemahan mesin, dll., dan berusaha untuk mensimulasikan kemahiran manusia dalam mendengar, bertutur, membaca dan menulis, dsb. tingkah laku pintar.
- Penglihatan Komputer (CV) merangkumi pengecaman imej dalam erti kata yang lebih luas Ia juga melibatkan banyak aspek seperti analisis imej, analisis video, dan pembinaan semula tiga dimensi Ia bertujuan untuk membolehkan komputer "melihat" dan mengenali imej daripada dua dimensi atau imej tiga dimensi Memahami dunia adalah tiruan mendalam terhadap sistem visual manusia.
- Graf Pengetahuan (KG) ialah model data berstruktur yang digunakan untuk menyimpan dan mewakili entiti dan hubungan kompleksnya antara satu sama lain Ia mensimulasikan keupayaan manusia untuk mengumpul dan menggunakan pengetahuan dalam proses kognitif, dan proses penaakulan dan pembelajaran pada pengetahuan sedia ada.
Teknologi canggih ini dikaji dan digunakan di sekitar konsep teras "mensimulasikan kecerdasan manusia". Mereka memberi tumpuan kepada pembangunan dimensi persepsi yang berbeza (seperti penglihatan, pendengaran, logik pemikiran, dll.), dan bersama-sama mempromosikan pembangunan berterusan dan kemajuan teknologi kecerdasan buatan.
Apakah pembelajaran mesin?
Pembelajaran Mesin (ML) ialah cabang penting dalam bidang kecerdasan buatan (AI). Ia menggunakan pelbagai algoritma untuk membolehkan sistem komputer mempelajari peraturan dan corak secara automatik daripada data untuk membuat ramalan dan keputusan, dengan itu meningkatkan dan mengembangkan keupayaan kecerdasan manusia.
Sebagai contoh, semasa melatih model pengecaman kucing, proses pembelajaran mesin adalah seperti berikut:
- Prapemprosesan data: Pertama, praproses sejumlah besar imej kucing dan bukan kucing yang dikumpul, termasuk penskalaan, skala kelabu, Normalisasi dan operasi lain dilakukan, dan imej ditukar kepada perwakilan vektor ciri Ciri ini mungkin datang daripada teknik pengekstrakan ciri yang direka secara manual, seperti ciri seperti Haar, corak binari tempatan (LBP) atau deskriptor ciri lain yang biasa digunakan dalam bidang penglihatan komputer. .
- Pemilihan ciri dan pengurangan dimensi: Pilih ciri utama mengikut ciri masalah, alih keluar maklumat yang berlebihan dan tidak berkaitan, dan kadangkala gunakan kaedah pengurangan dimensi PCA, LDA dan lain-lain untuk mengurangkan lagi dimensi ciri dan meningkatkan kecekapan algoritma.
- Latihan model: Kemudian gunakan set data berlabel pra-diproses untuk melatih model pembelajaran mesin yang dipilih, dan mengoptimumkan prestasi model dengan melaraskan parameter model supaya model boleh membezakan kucing daripada bukan kucing berdasarkan ciri-ciri.
- Penilaian dan pengesahan model: Selepas latihan selesai, model dinilai menggunakan set ujian bebas untuk memastikan model mempunyai keupayaan generalisasi yang baik dan boleh digunakan dengan tepat pada sampel baru yang tidak kelihatan.
10 algoritma pembelajaran mesin teratas yang biasa digunakan ialah: pokok keputusan, hutan rawak, regresi logistik, SVM, Naive Bayes, K algoritma jiran terdekat, algoritma K-means, algoritma Adaboost, rangkaian saraf, Markov, dsb.
Apakah pembelajaran mendalam?
Pembelajaran Dalam (DL) ialah satu bentuk pembelajaran mesin khas Ia mensimulasikan cara otak manusia memproses maklumat melalui struktur rangkaian saraf yang mendalam, dengan itu secara automatik mengekstrak perwakilan ciri yang kompleks daripada data.
Sebagai contoh, apabila melatih model pengecaman kucing, proses pembelajaran mendalam adalah seperti berikut:
(1) Prapemprosesan dan penyediaan data:
- Kumpulkan sejumlah besar set data yang mengandungi imej kucing dan bukan kucing, dan lakukan Bersihkan dan labelkan, pastikan setiap gambar mempunyai label yang sepadan (seperti "kucing" atau "bukan kucing").
- Prapemprosesan imej: Laraskan semua imej kepada saiz seragam, lakukan pemprosesan normalisasi, peningkatan data dan operasi lain.
(2) Reka bentuk dan pembinaan model:
- Pilih seni bina pembelajaran mendalam Untuk tugasan pengecaman imej, Convolutional Neural Network (CNN) biasanya digunakan. CNN boleh mengekstrak ciri tempatan imej secara berkesan dan mengabstrakkannya melalui struktur berbilang lapisan.
- Bina lapisan model, termasuk lapisan konvolusi (untuk pengekstrakan ciri), lapisan pengumpulan (untuk mengurangkan pengiraan dan mengelakkan pemasangan berlebihan), lapisan bersambung sepenuhnya (untuk menyepadukan dan mengelaskan ciri), dan lapisan normalisasi kelompok yang mungkin, Fungsi pengaktifan (seperti ReLU, sigmoid, dll.).
(3) Parameter permulaan dan menetapkan hiperparameter:
- Mulakan pemberat dan bias setiap lapisan dalam model, dan anda boleh menggunakan pemulaan rawak atau strategi pemulaan tertentu.
- Tetapkan hiperparameter seperti kadar pembelajaran, pengoptimum (seperti SGD, Adam, dll.), saiz kelompok, tempoh latihan (zaman), dsb.
(4) Rambatan ke hadapan:
- Masukkan imej pra-diproses ke dalam model, dan melalui konvolusi, pengumpulan, transformasi linear dan operasi lain bagi setiap lapisan, taburan kebarangkalian yang diramalkan bagi lapisan keluaran akhirnya diperolehi, bahawa ialah, model Tentukan kebarangkalian bahawa imej input ialah kucing.
(5) Fungsi kehilangan dan perambatan belakang:
- Gunakan fungsi kehilangan entropi silang atau fungsi kehilangan lain yang sesuai untuk mengukur perbezaan antara keputusan ramalan model dan label sebenar.
- Selepas mengira kerugian, laksanakan algoritma perambatan belakang untuk mengira kecerunan kerugian berkenaan dengan parameter model untuk mengemas kini parameter.
(6) Pengoptimuman dan kemas kini parameter:
- Gunakan turunan kecerunan atau algoritma pengoptimuman lain untuk melaraskan parameter model berdasarkan maklumat kecerunan, dengan tujuan meminimumkan fungsi kehilangan.
- Semasa setiap lelaran latihan, model akan terus belajar dan melaraskan parameter, secara beransur-ansur meningkatkan keupayaannya untuk mengecam imej kucing.
(7) Pengesahan dan penilaian:
- Secara kerap menilai prestasi model pada set pengesahan, pantau perubahan dalam ketepatan, ketepatan, penarikan semula dan penunjuk lain untuk membimbing pelarasan hiperparameter dan pembelajaran awal semasa latihan model.
(8) Penyiapan latihan dan ujian:
- Apabila prestasi model pada set pengesahan menjadi stabil atau mencapai keadaan berhenti pratetap, hentikan latihan.
- Akhir sekali, nilaikan keupayaan generalisasi model pada set ujian bebas untuk memastikan model boleh mengenal pasti kucing dengan berkesan pada sampel baharu yang tidak kelihatan.
Perbezaan antara pembelajaran mendalam dan pembelajaran mesin
Perbezaan antara pembelajaran mendalam dan pembelajaran mesin ialah:
1 Kaedah menyelesaikan masalah
Algoritma pembelajaran mesin biasanya bergantung pada kejuruteraan ciri rekaan manusia, iaitu pra. -pengekstrakan berdasarkan pengetahuan latar belakang masalah Ciri utama, dan kemudian bina model berdasarkan ciri ini dan lakukan penyelesaian pengoptimuman.
Pembelajaran mendalam menggunakan kaedah pembelajaran hujung ke hujung, menjana ciri abstrak peringkat tinggi secara automatik melalui transformasi bukan linear berbilang lapisan, dan ciri ini dioptimumkan secara berterusan semasa keseluruhan proses latihan. Tidak perlu memilih dan secara manual membina ciri, yang lebih dekat dengan manusia Gaya pemprosesan kognitif otak.
Sebagai contoh, jika anda ingin menulis perisian untuk mengenali kereta, jika anda menggunakan pembelajaran mesin, anda perlu mengekstrak ciri-ciri kereta secara manual, seperti saiz dan bentuk dan jika anda menggunakan pembelajaran mendalam, maka kecerdasan buatan neural Rangkaian mengekstrak ciri ini sendiri, tetapi memerlukan sejumlah besar imej yang dilabel sebagai kereta untuk dipelajari.
2. Senario aplikasi
Aplikasi pembelajaran mesin dalam bidang pengecaman cap jari, pengesanan objek ciri dan bidang lain pada asasnya telah memenuhi keperluan pengkomersialan.
Pembelajaran mendalam digunakan terutamanya dalam pengecaman teks, teknologi muka, analisis semantik, pemantauan pintar dan bidang lain. Pada masa ini, ia juga digunakan dengan pantas dalam perkakasan pintar, pendidikan, perubatan dan industri lain.
3. Jumlah data yang diperlukan
Algoritma pembelajaran mesin juga boleh menunjukkan prestasi yang baik dalam kes sampel kecil Untuk beberapa tugasan mudah atau masalah di mana ciri mudah diekstrak, kurang data boleh mencapai hasil yang memuaskan.
Pembelajaran mendalam biasanya memerlukan sejumlah besar data beranotasi untuk melatih rangkaian saraf dalam. Kelebihannya ialah ia boleh mempelajari secara langsung corak dan perwakilan yang kompleks daripada data asal, terutamanya apabila saiz data meningkat, peningkatan prestasi model pembelajaran mendalam adalah lebih ketara.
4. Masa pelaksanaan
Semasa fasa latihan, disebabkan lebih banyak lapisan model pembelajaran mendalam dan bilangan parameter yang banyak, proses latihan selalunya memakan masa dan memerlukan sokongan sumber pengkomputeran berprestasi tinggi, seperti Kelompok GPU.
Sebagai perbandingan, algoritma pembelajaran mesin (terutamanya model ringan tersebut) biasanya mempunyai masa latihan yang lebih kecil dan keperluan sumber pengkomputeran, dan lebih sesuai untuk lelaran pantas dan pengesahan percubaan.
Atas ialah kandungan terperinci Fahami dalam satu artikel: kaitan dan perbezaan antara AI, pembelajaran mesin dan pembelajaran mendalam. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Laman web ini melaporkan pada 27 Jun bahawa Jianying ialah perisian penyuntingan video yang dibangunkan oleh FaceMeng Technology, anak syarikat ByteDance Ia bergantung pada platform Douyin dan pada asasnya menghasilkan kandungan video pendek untuk pengguna platform tersebut Windows , MacOS dan sistem pengendalian lain. Jianying secara rasmi mengumumkan peningkatan sistem keahliannya dan melancarkan SVIP baharu, yang merangkumi pelbagai teknologi hitam AI, seperti terjemahan pintar, penonjolan pintar, pembungkusan pintar, sintesis manusia digital, dsb. Dari segi harga, yuran bulanan untuk keratan SVIP ialah 79 yuan, yuran tahunan ialah 599 yuan (nota di laman web ini: bersamaan dengan 49.9 yuan sebulan), langganan bulanan berterusan ialah 59 yuan sebulan, dan langganan tahunan berterusan ialah 499 yuan setahun (bersamaan dengan 41.6 yuan sebulan) . Di samping itu, pegawai yang dipotong juga menyatakan bahawa untuk meningkatkan pengalaman pengguna, mereka yang telah melanggan VIP asal

Tingkatkan produktiviti, kecekapan dan ketepatan pembangun dengan menggabungkan penjanaan dipertingkatkan semula dan memori semantik ke dalam pembantu pengekodan AI. Diterjemah daripada EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, pengarang JanakiramMSV. Walaupun pembantu pengaturcaraan AI asas secara semulajadi membantu, mereka sering gagal memberikan cadangan kod yang paling relevan dan betul kerana mereka bergantung pada pemahaman umum bahasa perisian dan corak penulisan perisian yang paling biasa. Kod yang dijana oleh pembantu pengekodan ini sesuai untuk menyelesaikan masalah yang mereka bertanggungjawab untuk menyelesaikannya, tetapi selalunya tidak mematuhi piawaian pengekodan, konvensyen dan gaya pasukan individu. Ini selalunya menghasilkan cadangan yang perlu diubah suai atau diperhalusi agar kod itu diterima ke dalam aplikasi

Model Bahasa Besar (LLM) dilatih pada pangkalan data teks yang besar, di mana mereka memperoleh sejumlah besar pengetahuan dunia sebenar. Pengetahuan ini dibenamkan ke dalam parameter mereka dan kemudiannya boleh digunakan apabila diperlukan. Pengetahuan tentang model ini "diperbaharui" pada akhir latihan. Pada akhir pra-latihan, model sebenarnya berhenti belajar. Selaraskan atau perhalusi model untuk mempelajari cara memanfaatkan pengetahuan ini dan bertindak balas dengan lebih semula jadi kepada soalan pengguna. Tetapi kadangkala pengetahuan model tidak mencukupi, dan walaupun model boleh mengakses kandungan luaran melalui RAG, ia dianggap berfaedah untuk menyesuaikan model kepada domain baharu melalui penalaan halus. Penalaan halus ini dilakukan menggunakan input daripada anotasi manusia atau ciptaan LLM lain, di mana model menemui pengetahuan dunia sebenar tambahan dan menyepadukannya

Untuk mengetahui lebih lanjut tentang AIGC, sila layari: 51CTOAI.x Komuniti https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou berbeza daripada bank soalan tradisional yang boleh dilihat di mana-mana sahaja di Internet memerlukan pemikiran di luar kotak. Model Bahasa Besar (LLM) semakin penting dalam bidang sains data, kecerdasan buatan generatif (GenAI) dan kecerdasan buatan. Algoritma kompleks ini meningkatkan kemahiran manusia dan memacu kecekapan dan inovasi dalam banyak industri, menjadi kunci kepada syarikat untuk kekal berdaya saing. LLM mempunyai pelbagai aplikasi Ia boleh digunakan dalam bidang seperti pemprosesan bahasa semula jadi, penjanaan teks, pengecaman pertuturan dan sistem pengesyoran. Dengan belajar daripada sejumlah besar data, LLM dapat menjana teks

Pembelajaran mesin ialah cabang penting kecerdasan buatan yang memberikan komputer keupayaan untuk belajar daripada data dan meningkatkan keupayaan mereka tanpa diprogramkan secara eksplisit. Pembelajaran mesin mempunyai pelbagai aplikasi dalam pelbagai bidang, daripada pengecaman imej dan pemprosesan bahasa semula jadi kepada sistem pengesyoran dan pengesanan penipuan, dan ia mengubah cara hidup kita. Terdapat banyak kaedah dan teori yang berbeza dalam bidang pembelajaran mesin, antaranya lima kaedah yang paling berpengaruh dipanggil "Lima Sekolah Pembelajaran Mesin". Lima sekolah utama ialah sekolah simbolik, sekolah sambungan, sekolah evolusi, sekolah Bayesian dan sekolah analogi. 1. Simbolisme, juga dikenali sebagai simbolisme, menekankan penggunaan simbol untuk penaakulan logik dan ekspresi pengetahuan. Aliran pemikiran ini percaya bahawa pembelajaran adalah proses penolakan terbalik, melalui sedia ada

Editor |ScienceAI Question Answering (QA) set data memainkan peranan penting dalam mempromosikan penyelidikan pemprosesan bahasa semula jadi (NLP). Set data QA berkualiti tinggi bukan sahaja boleh digunakan untuk memperhalusi model, tetapi juga menilai dengan berkesan keupayaan model bahasa besar (LLM), terutamanya keupayaan untuk memahami dan menaakul tentang pengetahuan saintifik. Walaupun pada masa ini terdapat banyak set data QA saintifik yang meliputi bidang perubatan, kimia, biologi dan bidang lain, set data ini masih mempunyai beberapa kekurangan. Pertama, borang data adalah agak mudah, kebanyakannya adalah soalan aneka pilihan. Ia mudah dinilai, tetapi mengehadkan julat pemilihan jawapan model dan tidak dapat menguji sepenuhnya keupayaan model untuk menjawab soalan saintifik. Sebaliknya, Soal Jawab terbuka

Editor |. Kulit Lobak Sejak pengeluaran AlphaFold2 yang berkuasa pada tahun 2021, saintis telah menggunakan model ramalan struktur protein untuk memetakan pelbagai struktur protein dalam sel, menemui ubat dan melukis "peta kosmik" setiap interaksi protein yang diketahui. Baru-baru ini, Google DeepMind mengeluarkan model AlphaFold3, yang boleh melakukan ramalan struktur bersama untuk kompleks termasuk protein, asid nukleik, molekul kecil, ion dan sisa yang diubah suai. Ketepatan AlphaFold3 telah dipertingkatkan dengan ketara berbanding dengan banyak alat khusus pada masa lalu (interaksi protein-ligan, interaksi asid protein-nukleik, ramalan antibodi-antigen). Ini menunjukkan bahawa dalam satu rangka kerja pembelajaran mendalam yang bersatu, adalah mungkin untuk dicapai

Editor |. KX Dalam bidang penyelidikan dan pembangunan ubat, meramalkan pertalian pengikatan protein dan ligan dengan tepat dan berkesan adalah penting untuk pemeriksaan dan pengoptimuman ubat. Walau bagaimanapun, kajian semasa tidak mengambil kira peranan penting maklumat permukaan molekul dalam interaksi protein-ligan. Berdasarkan ini, penyelidik dari Universiti Xiamen mencadangkan rangka kerja pengekstrakan ciri berbilang mod (MFE) novel, yang buat pertama kalinya menggabungkan maklumat mengenai permukaan protein, struktur dan jujukan 3D, dan menggunakan mekanisme perhatian silang untuk membandingkan ciri modaliti yang berbeza penjajaran. Keputusan eksperimen menunjukkan bahawa kaedah ini mencapai prestasi terkini dalam meramalkan pertalian mengikat protein-ligan. Tambahan pula, kajian ablasi menunjukkan keberkesanan dan keperluan maklumat permukaan protein dan penjajaran ciri multimodal dalam rangka kerja ini. Penyelidikan berkaitan bermula dengan "S
