Normalisasi Batch: Pelaksanaan Teori dan Tensorflow
Latihan rangkaian saraf yang mendalam sering menghadapi halangan seperti kecerunan lenyap/meletup dan peralihan kovariat dalaman, melambatkan latihan dan menghalang pembelajaran. Teknik normalisasi menawarkan penyelesaian, dengan normalisasi batch (BN) yang sangat menonjol. BN mempercepatkan penumpuan, meningkatkan kestabilan, dan meningkatkan penyebaran dalam banyak seni bina pembelajaran mendalam. Tutorial ini menerangkan mekanik BN, asas matematiknya, dan pelaksanaan Tensorflow/Keras.
Normalisasi dalam pembelajaran mesin menyeragamkan data input, menggunakan kaedah seperti skala min-max, normalisasi z-skor, dan transformasi log kepada ciri-ciri rescale. Ini mengurangkan kesan luar, meningkatkan penumpuan, dan memastikan perbandingan ciri yang adil. Data yang dinormalisasi memastikan sumbangan ciri yang sama kepada proses pembelajaran, mencegah ciri-ciri skala yang lebih besar daripada mendominasi dan membawa kepada prestasi model suboptimal. Ia membolehkan model mengenal pasti corak yang bermakna dengan lebih berkesan.
Cabaran Latihan Pembelajaran Deep termasuk:
- Perubahan kovariat dalaman: perubahan pengedaran pengaktifan merentasi lapisan semasa latihan, menghalang penyesuaian dan pembelajaran.
- kecerunan lenyap/meletup: kecerunan menjadi terlalu kecil atau besar semasa backpropagation, menghalang kemas kini berat badan yang berkesan.
- Sensitiviti Inisialisasi: Berat awal mempengaruhi latihan; Inisialisasi yang lemah boleh menyebabkan penumpuan perlahan atau gagal.
normalisasi batch menangani ini dengan menormalkan pengaktifan dalam setiap batch mini, menstabilkan latihan dan meningkatkan prestasi model.
Normalisasi batch menormalkan pengaktifan lapisan dalam batch mini semasa latihan. Ia mengira min dan varians pengaktifan untuk setiap ciri, kemudian menormalkan menggunakan statistik ini. Skala parameter yang boleh dipelajari (γ dan β) dan mengalihkan pengaktifan yang dinormalisasi, yang membolehkan model mempelajari pengedaran pengaktifan optimum.
Bn biasanya digunakan selepas transformasi linear lapisan (mis., Multiplikasi matriks dalam lapisan yang disambungkan sepenuhnya atau konvolusi dalam lapisan konvolusi) dan sebelum fungsi pengaktifan bukan linear (mis., Relu). Komponen utama adalah statistik batch mini (min dan varians), normalisasi, dan skala/beralih dengan parameter yang boleh dipelajari.
BN menangani peralihan kovariat dalaman dengan menormalkan pengaktifan dalam setiap batch mini, membuat input ke lapisan berikutnya lebih stabil. Ini membolehkan penumpuan lebih cepat dengan kadar pembelajaran yang lebih tinggi dan mengurangkan kepekaan inisialisasi. Ia juga menghidupkan, mencegah overfitting dengan mengurangkan pergantungan pada corak pengaktifan tertentu.
Matematik normalisasi batch:
BN beroperasi secara berbeza semasa latihan dan kesimpulan.
Latihan:
- normalisasi: min (μ b ) dan varians (σ b 2 ) dikira untuk setiap ciri dalam mini-batch:
) dinormalisasi:
(ε adalah pemalar kecil untuk kestabilan berangka).
Pertimbangan pelaksanaan:
saiz batch: saiz batch kecil: statistik kelompok yang kurang dipercayai. Kesimpulan: Normalisasi batch adalah teknik yang kuat meningkatkan latihan rangkaian saraf yang mendalam. Ingat manfaat, butiran pelaksanaan, dan batasannya, dan pertimbangkan variannya untuk prestasi optimum dalam projek anda.
pengaktifan (x
parameter yang boleh dipelajari γ dan skala β dan peralihan:
statistik batch digantikan dengan statistik berjalan (berjalan min dan varians) yang dikira semasa latihan menggunakan purata bergerak (faktor momentum α):
3 statistik batch:
Statistik berjalan dan γ dan β yang dipelajari digunakan untuk normalisasi semasa kesimpulan. Pelaksanaan TensorFlow:
import tensorflow as tf
from tensorflow import keras
# Load and preprocess MNIST data (as described in the original text)
# ...
# Define the model architecture
model = keras.Sequential([
keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)),
keras.layers.BatchNormalization(),
keras.layers.Conv2D(64, (3, 3), activation='relu'),
keras.layers.BatchNormalization(),
keras.layers.MaxPooling2D((2, 2)),
keras.layers.Flatten(),
keras.layers.Dense(128, activation='relu'),
keras.layers.BatchNormalization(),
keras.layers.Dense(10, activation='softmax')
])
# Compile and train the model (as described in the original text)
# ...
Atas ialah kandungan terperinci Normalisasi Batch: Pelaksanaan Teori dan Tensorflow. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Pengekodan Vibe membentuk semula dunia pembangunan perisian dengan membiarkan kami membuat aplikasi menggunakan bahasa semulajadi dan bukannya kod yang tidak berkesudahan. Diilhamkan oleh penglihatan seperti Andrej Karpathy, pendekatan inovatif ini membolehkan Dev

Februari 2025 telah menjadi satu lagi bulan yang berubah-ubah untuk AI generatif, membawa kita beberapa peningkatan model yang paling dinanti-nantikan dan ciri-ciri baru yang hebat. Dari Xai's Grok 3 dan Anthropic's Claude 3.7 Sonnet, ke Openai's G

Yolo (anda hanya melihat sekali) telah menjadi kerangka pengesanan objek masa nyata yang terkemuka, dengan setiap lelaran bertambah baik pada versi sebelumnya. Versi terbaru Yolo V12 memperkenalkan kemajuan yang meningkatkan ketepatan

CHATGPT 4 kini tersedia dan digunakan secara meluas, menunjukkan penambahbaikan yang ketara dalam memahami konteks dan menjana tindak balas yang koheren berbanding dengan pendahulunya seperti ChATGPT 3.5. Perkembangan masa depan mungkin merangkumi lebih banyak Inter yang diperibadikan

Google Deepmind's Gencast: AI Revolusioner untuk Peramalan Cuaca Peramalan cuaca telah menjalani transformasi dramatik, bergerak dari pemerhatian asas kepada ramalan berkuasa AI yang canggih. Google Deepmind's Gencast, tanah air

Artikel ini membincangkan model AI yang melampaui chatgpt, seperti Lamda, Llama, dan Grok, menonjolkan kelebihan mereka dalam ketepatan, pemahaman, dan kesan industri. (159 aksara)

Openai's O1: Hadiah 12 Hari Bermula dengan model mereka yang paling berkuasa Ketibaan Disember membawa kelembapan global, kepingan salji di beberapa bahagian dunia, tetapi Openai baru sahaja bermula. Sam Altman dan pasukannya melancarkan mantan hadiah 12 hari

Artikel ini mengkaji semula penjana seni AI atas, membincangkan ciri -ciri mereka, kesesuaian untuk projek kreatif, dan nilai. Ia menyerlahkan Midjourney sebagai nilai terbaik untuk profesional dan mengesyorkan Dall-E 2 untuk seni berkualiti tinggi dan disesuaikan.
