Contoh aplikasi praktikal gabungan ciri cetek dan ciri mendalam
Pembelajaran mendalam telah mencapai kejayaan besar dalam bidang penglihatan komputer, dan salah satu kemajuan penting ialah penggunaan rangkaian neural convolutional dalam (CNN) untuk klasifikasi imej. Walau bagaimanapun, CNN dalam biasanya memerlukan sejumlah besar data berlabel dan sumber pengkomputeran. Untuk mengurangkan permintaan untuk sumber pengiraan dan data berlabel, penyelidik mula mengkaji cara menggabungkan ciri cetek dan ciri mendalam untuk meningkatkan prestasi klasifikasi imej. Kaedah gabungan ini boleh mengambil kesempatan daripada kecekapan pengiraan yang tinggi bagi ciri cetek dan keupayaan perwakilan yang kuat bagi ciri mendalam. Dengan menggabungkan kedua-duanya, kos pengiraan dan keperluan pelabelan data boleh dikurangkan sambil mengekalkan ketepatan klasifikasi yang tinggi. Kaedah ini amat penting untuk senario aplikasi dengan volum data yang kecil atau sumber pengkomputeran terhad. Dengan kajian mendalam tentang kaedah gabungan ciri cetek dan ciri mendalam, kami boleh meningkatkan lagi prestasi algoritma pengelasan imej dan membawa lebih banyak penemuan kepada penyelidikan dan aplikasi dalam bidang penglihatan komputer.
Kaedah biasa ialah menggunakan model CNN berlatarkan Model CNN pertama digunakan untuk mengekstrak ciri cetek, model CNN kedua digunakan untuk mengekstrak ciri mendalam, dan akhirnya output kedua-dua model disambungkan ketepatan keputusan pengelasan.
Ini adalah contoh menggunakan model CNN berlatarkan untuk mengenali digit tulisan tangan. Model ini menggunakan set data MNIST, yang merangkumi 60,000 imej latihan dan 10,000 imej ujian, setiap saiz imej ialah 28×28 piksel.
Pertama, kami mentakrifkan seni bina model. Kami menggunakan dua model CNN untuk mengekstrak ciri. Model CNN pertama mengandungi dua lapisan konvolusi dan lapisan pengumpulan maksimum untuk mengekstrak ciri cetek. Model CNN kedua mengandungi tiga lapisan konvolusi dan lapisan pengumpulan maksimum untuk mengekstrak ciri yang mendalam. Seterusnya, kami menggabungkan output kedua-dua model bersama-sama dan menambah dua lapisan bersambung sepenuhnya untuk pengelasan. Seni bina sedemikian boleh mengekstrak ciri yang kaya dan melaksanakan tugas pengelasan yang lebih baik.
import tensorflow as tf from tensorflow.keras.layers import Input, Conv2D, MaxPooling2D, Flatten, Dense, Concatenate # Define shallow CNN model shallow_input = Input(shape=(28, 28, 1)) shallow_conv1 = Conv2D(32, (3, 3), activation='relu', padding='same')(shallow_input) shallow_pool1 = MaxPooling2D((2, 2))(shallow_conv1) shallow_conv2 = Conv2D(64, (3, 3), activation='relu', padding='same')(shallow_pool1) shallow_pool2 = MaxPooling2D((2, 2))(shallow_conv2) shallow_flat = Flatten()(shallow_pool2) shallow_output = Dense(128, activation='relu')(shallow_flat) # Define deep CNN model deep_input = Input(shape=(28, 28, 1)) deep_conv1 = Conv2D(32, (3, 3), activation='relu', padding='same')(deep_input) deep_pool1 = MaxPooling2D((2, 2))(deep_conv1) deep_conv2 = Conv2D(64, (3, 3), activation='relu', padding='same')(deep_pool1) deep_pool2 = MaxPooling2D((2, 2))(deep_conv2) deep_conv3 = Conv2D(128, (3, 3), activation='relu', padding='same')(deep_pool2) deep_pool3 = MaxPooling2D((2, 2))(deep_conv3) deep_flat = Flatten()(deep_pool3) deep_output = Dense(256, activation='relu')(deep_flat) # Concatenate shallow and deep models concatenate = Concatenate()([shallow_output, deep_output]) output = Dense(10, activation='softmax')(concatenate) # Define the model model = tf.keras.Model(inputs=[shallow_input, deep_input], outputs=output)
Model itu kemudiannya disusun dan dilatih. Memandangkan set data MNIST ialah masalah klasifikasi berbilang kelas, fungsi kehilangan entropi silang dan pengoptimum Adam digunakan untuk menyusun model. Model ini dilatih pada set latihan untuk 100 zaman, menggunakan 128 kelompok untuk setiap zaman.
# Compile the model model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) # Train the model model.fit([x_train, x_train], y_train, batch_size=128, epochs=100, verbose=1, validation_data=([x_test, x_test], y_test))
Akhir sekali, nilai prestasi model pada set ujian. Dalam contoh ini, ketepatan ujian model CNN bertingkat ialah 99.2%, iaitu kira-kira 0.5% lebih tinggi daripada ketepatan ujian yang dilatih dengan model CNN tunggal, menunjukkan bahawa gabungan ciri cetek dan ciri mendalam sememangnya boleh meningkatkan prestasi imej. pengelasan.
Ringkasnya, gabungan ciri cetek dan ciri mendalam adalah kaedah yang berkesan untuk meningkatkan prestasi klasifikasi imej. Contoh ini menunjukkan cara menggunakan model CNN berlatarkan untuk mengecam digit tulisan tangan, di mana model CNN pertama mengekstrak ciri cetek, model CNN kedua mengekstrak ciri mendalam, dan kemudian output kedua-dua model digabungkan bersama untuk pengelasan. Kaedah ini juga digunakan secara meluas dalam banyak tugas pengelasan imej lain.
Atas ialah kandungan terperinci Contoh aplikasi praktikal gabungan ciri cetek dan ciri mendalam. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Ditulis sebelum ini, hari ini kita membincangkan bagaimana teknologi pembelajaran mendalam boleh meningkatkan prestasi SLAM berasaskan penglihatan (penyetempatan dan pemetaan serentak) dalam persekitaran yang kompleks. Dengan menggabungkan kaedah pengekstrakan ciri dalam dan pemadanan kedalaman, di sini kami memperkenalkan sistem SLAM visual hibrid serba boleh yang direka untuk meningkatkan penyesuaian dalam senario yang mencabar seperti keadaan cahaya malap, pencahayaan dinamik, kawasan bertekstur lemah dan seks yang teruk. Sistem kami menyokong berbilang mod, termasuk konfigurasi monokular, stereo, monokular-inersia dan stereo-inersia lanjutan. Selain itu, ia juga menganalisis cara menggabungkan SLAM visual dengan kaedah pembelajaran mendalam untuk memberi inspirasi kepada penyelidikan lain. Melalui percubaan yang meluas pada set data awam dan data sampel sendiri, kami menunjukkan keunggulan SL-SLAM dari segi ketepatan kedudukan dan keteguhan penjejakan.

Pemulihan foto lama ialah kaedah menggunakan teknologi kecerdasan buatan untuk membaiki, menambah baik dan menambah baik foto lama. Menggunakan penglihatan komputer dan algoritma pembelajaran mesin, teknologi ini secara automatik boleh mengenal pasti dan membaiki kerosakan dan kecacatan pada foto lama, menjadikannya kelihatan lebih jelas, lebih semula jadi dan lebih realistik. Prinsip teknikal pemulihan foto lama terutamanya merangkumi aspek-aspek berikut: 1. Penyahnosian dan penambahbaikan imej Apabila memulihkan foto lama, foto itu perlu dibunyikan dan dipertingkatkan terlebih dahulu. Algoritma dan penapis pemprosesan imej, seperti penapisan min, penapisan Gaussian, penapisan dua hala, dsb., boleh digunakan untuk menyelesaikan masalah bunyi dan bintik warna, dengan itu meningkatkan kualiti foto. 2. Pemulihan dan pembaikan imej Dalam foto lama, mungkin terdapat beberapa kecacatan dan kerosakan, seperti calar, retak, pudar, dsb. Masalah ini boleh diselesaikan dengan algoritma pemulihan dan pembaikan imej

Dalam gelombang perubahan teknologi yang pesat hari ini, Kecerdasan Buatan (AI), Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) adalah seperti bintang terang, menerajui gelombang baharu teknologi maklumat. Ketiga-tiga perkataan ini sering muncul dalam pelbagai perbincangan dan aplikasi praktikal yang canggih, tetapi bagi kebanyakan peneroka yang baru dalam bidang ini, makna khusus dan hubungan dalaman mereka mungkin masih diselubungi misteri. Jadi mari kita lihat gambar ini dahulu. Dapat dilihat bahawa terdapat korelasi rapat dan hubungan progresif antara pembelajaran mendalam, pembelajaran mesin dan kecerdasan buatan. Pembelajaran mendalam ialah bidang khusus pembelajaran mesin dan pembelajaran mesin

Hampir 20 tahun telah berlalu sejak konsep pembelajaran mendalam dicadangkan pada tahun 2006. Pembelajaran mendalam, sebagai revolusi dalam bidang kecerdasan buatan, telah melahirkan banyak algoritma yang berpengaruh. Jadi, pada pendapat anda, apakah 10 algoritma teratas untuk pembelajaran mendalam? Berikut adalah algoritma teratas untuk pembelajaran mendalam pada pendapat saya Mereka semua menduduki kedudukan penting dari segi inovasi, nilai aplikasi dan pengaruh. 1. Latar belakang rangkaian saraf dalam (DNN): Rangkaian saraf dalam (DNN), juga dipanggil perceptron berbilang lapisan, adalah algoritma pembelajaran mendalam yang paling biasa Apabila ia mula-mula dicipta, ia dipersoalkan kerana kesesakan kuasa pengkomputeran tahun, kuasa pengkomputeran, Kejayaan datang dengan letupan data. DNN ialah model rangkaian saraf yang mengandungi berbilang lapisan tersembunyi. Dalam model ini, setiap lapisan menghantar input ke lapisan seterusnya dan

Model LSTM dwiarah ialah rangkaian saraf yang digunakan untuk pengelasan teks. Berikut ialah contoh mudah yang menunjukkan cara menggunakan LSTM dwiarah untuk tugasan pengelasan teks. Pertama, kita perlu mengimport perpustakaan dan modul yang diperlukan: importosimportnumpyasnpfromkeras.preprocessing.textimportTokenizerfromkeras.preprocessing.sequenceimportpad_sequencesfromkeras.modelsimportSequentialfromkeras.layersimportDense,Em

Rangkaian Neural Konvolusi (CNN) dan Transformer ialah dua model pembelajaran mendalam berbeza yang telah menunjukkan prestasi cemerlang pada tugasan yang berbeza. CNN digunakan terutamanya untuk tugas penglihatan komputer seperti klasifikasi imej, pengesanan sasaran dan pembahagian imej. Ia mengekstrak ciri tempatan pada imej melalui operasi lilitan, dan melakukan pengurangan dimensi ciri dan invarian ruang melalui operasi pengumpulan. Sebaliknya, Transformer digunakan terutamanya untuk tugas pemprosesan bahasa semula jadi (NLP) seperti terjemahan mesin, klasifikasi teks dan pengecaman pertuturan. Ia menggunakan mekanisme perhatian kendiri untuk memodelkan kebergantungan dalam jujukan, mengelakkan pengiraan berjujukan dalam rangkaian saraf berulang tradisional. Walaupun kedua-dua model ini digunakan untuk tugasan yang berbeza, ia mempunyai persamaan dalam pemodelan jujukan, jadi

Editor |. Kulit Lobak Sejak pengeluaran AlphaFold2 yang berkuasa pada tahun 2021, saintis telah menggunakan model ramalan struktur protein untuk memetakan pelbagai struktur protein dalam sel, menemui ubat dan melukis "peta kosmik" setiap interaksi protein yang diketahui. Baru-baru ini, Google DeepMind mengeluarkan model AlphaFold3, yang boleh melakukan ramalan struktur bersama untuk kompleks termasuk protein, asid nukleik, molekul kecil, ion dan sisa yang diubah suai. Ketepatan AlphaFold3 telah dipertingkatkan dengan ketara berbanding dengan banyak alat khusus pada masa lalu (interaksi protein-ligan, interaksi asid protein-nukleik, ramalan antibodi-antigen). Ini menunjukkan bahawa dalam satu rangka kerja pembelajaran mendalam yang bersatu, adalah mungkin untuk dicapai

Penjejakan objek ialah tugas penting dalam penglihatan komputer dan digunakan secara meluas dalam pemantauan trafik, robotik, pengimejan perubatan, pengesanan kenderaan automatik dan bidang lain. Ia menggunakan kaedah pembelajaran mendalam untuk meramal atau menganggarkan kedudukan objek sasaran dalam setiap bingkai berturut-turut dalam video selepas menentukan kedudukan awal objek sasaran. Penjejakan objek mempunyai pelbagai aplikasi dalam kehidupan sebenar dan sangat penting dalam bidang penglihatan komputer. Penjejakan objek biasanya melibatkan proses pengesanan objek. Berikut ialah gambaran ringkas tentang langkah-langkah pengesanan objek: 1. Pengesanan objek, di mana algoritma mengelaskan dan mengesan objek dengan mencipta kotak sempadan di sekelilingnya. 2. Berikan pengenalan unik (ID) kepada setiap objek. 3. Jejaki pergerakan objek yang dikesan dalam bingkai sambil menyimpan maklumat yang berkaitan. Jenis Sasaran Penjejakan Sasaran
