


Sembilan algoritma pengelompokan untuk meneroka pembelajaran mesin tanpa pengawasan
Hari ini, saya ingin berkongsi dengan anda kaedah pengelompokan pembelajaran tanpa pengawasan yang biasa dalam pembelajaran mesin
Dalam pembelajaran tanpa pengawasan, data kami tidak membawa sebarang label, jadi apa yang perlu kami lakukan dalam pembelajaran tanpa pengawasan adalah untuk Siri data tidak berlabel ini ialah input ke dalam algoritma, dan kemudian algoritma dibenarkan untuk mencari beberapa struktur yang tersirat dalam data Melalui data dalam rajah di bawah, satu struktur yang boleh didapati ialah titik dalam set data boleh dibahagikan kepada dua set titik berasingan. . (kluster), algoritma yang boleh mengelilingi kluster ini (cluster) dipanggil algoritma pengelompokan.
Aplikasi algoritma pengelompokan
- Segmentasi pasaran: Kumpulan maklumat pelanggan dalam pangkalan data mengikut pasaran, untuk mencapai jualan atau peningkatan perkhidmatan yang berasingan mengikut pasaran yang berbeza.
- Analisis rangkaian sosial: Cari kumpulan rapat dengan menghantar e-mel kepada orang yang paling kerap dihubungi dan kenalan mereka yang paling kerap.
- Atur gugusan komputer: Dalam pusat data, gugusan komputer sering berfungsi bersama dan boleh digunakan untuk menyusun semula sumber, menyusun semula rangkaian, mengoptimumkan pusat data dan menyampaikan data.
- Fahami komposisi Bima Sakti: Gunakan maklumat ini untuk mempelajari sesuatu tentang astronomi.
Matlamat analisis kelompok adalah untuk membahagikan pemerhatian kepada kumpulan ("cluster") supaya perbezaan berpasangan antara pemerhatian yang diberikan kepada kelompok yang sama cenderung lebih kecil daripada perbezaan antara pemerhatian dalam kelompok yang berbeza. Algoritma pengelompokan dibahagikan kepada tiga jenis berbeza: algoritma gabungan, pemodelan hibrid dan carian corak. . Bisecting K- Means
DBSCANOPTIK
BIRCH- K-means
- Algoritma K-means ialah salah satu kaedah pengelompokan yang paling popular pada masa ini.
- K-means telah dicadangkan oleh Stuart Lloyd dari Bell Labs pada tahun 1957. Ia pada asalnya digunakan untuk modulasi kod nadi Tidak sampai tahun 1982 algoritma itu diumumkan kepada orang ramai. Pada tahun 1965, Edward W. Forgy menerbitkan algoritma yang sama, jadi K-Means kadangkala dipanggil Lloyd-Forgy.
- Masalah pengelompokan biasanya memerlukan pemprosesan set set data tidak berlabel dan memerlukan algoritma untuk membahagikan data ini secara automatik kepada subset atau kelompok yang berkait rapat. Pada masa ini, algoritma pengelompokan yang paling popular dan digunakan secara meluas ialah algoritma K-means
- Pemahaman intuitif algoritma K-means:
Katakan terdapat set data tidak berlabel di atas), dan kami Jika anda ingin membahagikannya kepada dua kluster, kini laksanakan algoritma K-means Operasi khusus adalah seperti berikut:
Langkah pertama ialah menjana dua mata secara rawak (kerana anda ingin berkelompok. data kepada dua kategori) (kanan gambar di atas), kedua-dua titik ini dipanggil cluster centroids.
Langkah kedua ialah melakukan gelung dalaman bagi algoritma K-means. Algoritma K-means ialah algoritma lelaran yang melakukan dua perkara Yang pertama ialah penugasan kelompok dan yang kedua ialah gerakkan centroid. Langkah pertama dalam gelung dalaman adalah untuk melakukan tugasan kluster, iaitu, melintasi setiap sampel, dan kemudian menetapkan setiap titik ke pusat kluster yang berbeza berdasarkan jarak dari setiap titik ke pusat kluster. kes ini adalah untuk mengulangi set data dan mewarna setiap titik merah atau biru. . penetapan kluster dibuat berdasarkan jarak, dan proses ini digelung secara berterusan sehingga kedudukan pusat kluster tidak lagi berubah dengan lelaran, dan warna titik tidak lagi berubah. Pada masa ini boleh dikatakan bahawa K-means telah menyelesaikan agregasi. Algoritma ini melakukan kerja yang cukup baik untuk mencari dua kelompok dalam data
Kelebihan algoritma K-Means:
Mudah dan mudah difahami, kelajuan pengiraan pantas, dan sesuai untuk set data berskala besar.
Kelemahan:
- Sebagai contoh, keupayaan pemprosesan untuk kluster bukan sfera adalah lemah, ia mudah dipengaruhi oleh pemilihan pusat kluster awal, dan bilangan kluster K perlu dinyatakan terlebih dahulu.
- Selain itu, apabila terdapat bunyi bising atau outlier antara titik data, algoritma K-Means mungkin menetapkannya kepada kelompok yang salah.
Hierarki Pengelompokan
Hierarki Pengelompokan ialah operasi pengelompokan set sampel mengikut tahap tertentu. Tahap di sini sebenarnya merujuk kepada takrifan jarak tertentu
Tujuan utama pengelompokan adalah untuk mengurangkan bilangan pengelasan, jadi ia adalah serupa dalam tingkah laku proses dendrogram yang secara beransur-ansur menghampiri dari nod daun ke nod akar. . Jenis ini Tingkah laku juga dipanggil "bottom-up"
Lebih popular, pengelompokan hierarki menganggap gugusan yang dimulakan sebagai nod pepohon Pada setiap langkah lelaran, dua gugusan yang serupa digabungkan menjadi gugusan besar baharu dicipta dan proses ini diulang sehingga akhirnya hanya tinggal satu kelompok (nod akar).
Strategi pengelompokan hierarki terbahagi kepada dua paradigma asas: agregasi (bawah ke atas) dan pembahagian (atas ke bawah).
Kebalikan daripada pengelompokan hierarki ialah pengelompokan divisive, juga dikenali sebagai DIANA (Analisis Pembahagian), yang proses kelakuannya adalah "atas-bawah"
Hasil algoritma K-means bergantung pada kelompok yang dipilih untuk mencari . Peruntukan bilangan kelas dan konfigurasi permulaan. Sebaliknya, kaedah pengelompokan hierarki tidak memerlukan spesifikasi sedemikian. Sebaliknya, mereka memerlukan pengguna untuk menentukan ukuran ketidaksamaan antara kumpulan pemerhatian (berpisah) berdasarkan ketidaksamaan berpasangan antara dua set pemerhatian. Seperti namanya, kaedah pengelompokan hierarki menghasilkan perwakilan hierarki di mana kelompok di setiap peringkat dicipta dengan menggabungkan kelompok di peringkat bawah seterusnya. Pada peringkat terendah, setiap kelompok mengandungi satu pemerhatian. Pada tahap tertinggi, hanya satu gugusan mengandungi semua data
Kelebihan:
- Persamaan jarak dan peraturan mudah ditakrifkan dan mempunyai sedikit sekatan
- tidak perlu menentukan bilangan; ;
- boleh menemui hubungan hierarki kelas
- boleh dikelompokkan ke dalam bentuk lain.
Kelemahan:
- Kerumitan pengiraan terlalu tinggi;
- Nilai tunggal ke dalam 🜎 kemungkinan besar juga boleh memberi impak kepada; .
- Agglomerative Clustering
Kandungan yang ditulis semula ialah: Agglomerative Clustering ialah algoritma pengelompokan bawah ke atas yang menganggap setiap titik data sebagai gugusan awal dan secara beransur-ansur menggabungkannya Mereka membentuk gugusan yang lebih besar sehingga keadaan berhenti dipenuhi. Dalam algoritma ini, setiap titik data pada mulanya dianggap sebagai gugusan yang berasingan, dan kemudian gugusan digabungkan secara beransur-ansur sehingga semua titik data digabungkan menjadi satu gugusan besar
Kelebihan:
Sesuai untuk bentuk dan saiz yang berbeza kluster, dan tidak perlu menyatakan bilangan kluster terlebih dahulu.
- Algoritma juga boleh mengeluarkan hierarki pengelompokan untuk analisis dan visualisasi yang mudah.
- Kelemahan:
Kerumitan pengiraan adalah tinggi, terutamanya apabila memproses set data berskala besar, ia memerlukan sejumlah besar sumber pengkomputeran dan ruang storan.
- Algoritma ini juga sensitif terhadap pemilihan kluster awal, yang mungkin membawa kepada hasil kluster yang berbeza.
- Perambatan Perkaitan
Kandungan yang diubah suai: Algoritma Perambatan Perkaitan (AP) biasanya diterjemahkan sebagai Algoritma Perambatan Perkaitan atau Algoritma Perambatan Kehampiran
penggabungan algoritma berdasarkan "eksekusi" s " (titik perwakilan) dan "kelompok" (kelompok) dalam data. Tidak seperti algoritma pengelompokan tradisional seperti K-Means, Perambatan Perkaitan tidak perlu menentukan bilangan kelompok terlebih dahulu, dan ia juga tidak perlu memulakan pusat kelompok secara rawak Sebaliknya, ia memperoleh hasil pengelompokan akhir dengan mengira persamaan antara titik data.
Kelebihan:
- Tidak perlu menyatakan bilangan keluarga kluster akhir
- Titik data sedia ada digunakan sebagai pusat kluster terakhir dan bukannya menjana pusat kluster baharu.
- Model tidak sensitif kepada nilai awal data.
- Tiada keperluan untuk simetri data matriks persamaan awal.
- Berbanding dengan kaedah pengelompokan k-centers, ralat ralat kuasa dua hasil adalah lebih kecil.
Kelemahan:
- Algoritma ini mempunyai kerumitan pengiraan yang tinggi dan memerlukan banyak ruang storan dan sumber pengkomputeran
- kebolehan pemprosesan dan pengeluaran yang lemah;
Shifting clustering ialah algoritma pengelompokan bukan parametrik berasaskan ketumpatan ialah mencari lokasi dengan ketumpatan tertinggi titik data (dipanggil "maksimum tempatan" atau "puncak"). , untuk mengenal pasti kelompok dalam data. Teras algoritma ini adalah untuk menganggarkan ketumpatan setempat bagi setiap titik data, dan menggunakan keputusan anggaran ketumpatan untuk mengira arah dan jarak pergerakan titik data
Kelebihan:
- Tidak perlu untuk menentukan bilangan kelompok, Dan ia juga mempunyai hasil yang baik untuk kelompok dengan bentuk yang kompleks.
- Algoritma ini juga mampu mengendalikan data bising dengan berkesan.
Kelemahan:
- Kerumitan pengiraan adalah tinggi, terutamanya apabila memproses set data berskala besar, yang memerlukan sejumlah besar sumber pengkomputeran dan ruang storan ini; parameter Pemilihan adalah agak sensitif dan memerlukan pelarasan dan pengoptimuman parameter.
- Bisecting K-Means
Bisecting K-Means ialah algoritma pengelompokan hierarki berdasarkan algoritma K-Means . , gunakan algoritma K-Means pada setiap subkluster secara berasingan, dan ulangi proses ini sehingga bilangan kluster yang telah ditetapkan dicapai.
Algoritma mula-mula merawat semua titik data sebagai gugusan awal, kemudian menggunakan algoritma K-Means pada gugusan, membahagikan gugusan itu kepada dua subkluster dan mengira jumlah ralat kuasa dua (SSE) untuk setiap sub- kelompok. Kemudian, subkluster dengan jumlah ralat kuasa dua terbesar dipilih dan dibahagikan kepada dua subkluster sekali lagi, dan proses ini diulang sehingga bilangan kluster yang telah ditetapkan dicapai.
Kelebihan:
mempunyai ketepatan dan kestabilan yang tinggi, boleh mengendalikan set data berskala besar dengan berkesan, dan tidak perlu menyatakan bilangan awal kelompok.
- Algoritma ini juga mampu mengeluarkan hierarki pengelompokan untuk analisis dan visualisasi yang mudah.
- Kelemahan:
Kerumitan pengiraan adalah tinggi, terutamanya apabila memproses set data berskala besar, ia memerlukan banyak sumber pengkomputeran dan ruang storan.
- Selain itu, algoritma ini juga sensitif terhadap pemilihan kelompok awal, yang mungkin membawa kepada hasil pengelompokan yang berbeza.
- DBSCAN
Algoritma pengelompokan spatial berasaskan ketumpatan DBSCAN (Pengkelompokan Spatial Berasaskan Ketumpatan Aplikasi dengan Bunyi) ialah kaedah pengelompokan biasa dengan bunyi
tetapi tiada pergantungan pada kaedah ketumpatan pada ketumpatan. Oleh itu, ia boleh mengatasi kelemahan bahawa algoritma berasaskan jarak hanya boleh mencari kelompok "sfera" Idea teras algoritma DBSCAN ialah: untuk titik data tertentu, jika ketumpatannya mencapai ambang tertentu, ia tergolong dalam kelompok. ; jika tidak, ia dianggap sebagai titik bunyi.
Kelebihan:
- Algoritma jenis ini boleh mengatasi kelemahan algoritma berasaskan jarak yang hanya boleh mencari gugusan "bulatan" (cembung)
- tidak sensitif kepada sebarang bentuk, dan gugusan; data bising;
- Tidak perlu menyatakan bilangan gugusan kelas
- Hanya terdapat dua parameter dalam algoritma, jejari imbasan (eps) dan bilangan minimum mata yang disertakan (min_samples).
Kelemahan:
- Kerumitan pengiraan, tanpa sebarang pengoptimuman, kerumitan masa algoritma ialah O(N^{2}), biasanya pokok R, pokok k-d;, bola boleh digunakan
- indeks pokok untuk mempercepatkan pengiraan dan mengurangkan kerumitan masa algoritma kepada O(Nlog(N));
- sangat dipengaruhi oleh EPS. Apabila ketumpatan pengedaran data dalam kelas tidak sekata, apabila eps kecil, gugusan dengan ketumpatan kecil akan dibahagikan kepada berbilang gugusan dengan sifat yang serupa apabila eps besar, gugusan yang lebih rapat dan padat akan digabungkan menjadi satu gugusan. Dalam kes data dimensi tinggi, pemilihan eps adalah lebih sukar kerana kutukan dimensi;
- tidak sesuai untuk perbezaan kepekatan set data Sangat besar, kerana sukar untuk memilih eps dan metrik.
- OPTIK
Idea teras algoritma OPTIK adalah untuk mengira jarak antara titik data tertentu dan titik lain untuk menentukan kebolehcapaiannya pada ketumpatan dan membina peta jarak berasaskan kepadatan. Kemudian, dengan mengimbas peta jarak ini, bilangan gugusan ditentukan secara automatik dan setiap gugusan dibahagikan
Kelebihan:
Dapat menentukan bilangan gugusan dan mengendalikan gugusan dalam sebarang bentuk secara automatik, dan Able untuk mengendalikan data bising dengan berkesan.
- Algoritma ini juga mampu mengeluarkan hierarki pengelompokan untuk analisis dan visualisasi yang mudah.
- Kelemahan:
Kerumitan pengiraan adalah tinggi, terutamanya apabila memproses set data berskala besar, ia memerlukan sejumlah besar sumber pengkomputeran dan ruang storan.
- Algoritma ini mungkin menghasilkan keputusan pengelompokan yang lemah untuk set data dengan perbezaan ketumpatan yang besar. . Algoritma BIRCH adalah untuk mengurangkan saiz data secara beransur-ansur melalui pengelompokan hierarki set data, dan akhirnya mendapatkan struktur kelompok. Algoritma BIRCH menggunakan struktur yang serupa dengan pokok B, dipanggil pokok CF, yang boleh memasukkan dan memadam subkluster dengan cepat dan boleh diseimbangkan secara automatik untuk memastikan kualiti dan kecekapan kluster
- Kelebihan:
Boleh memproses set data berskala besar dengan cepat, dan mempunyai hasil yang baik untuk kelompok bentuk arbitrari.
Algoritma ini juga mempunyai toleransi kesalahan yang baik untuk data bising dan outlier.
Kelemahan:
- Untuk set data dengan perbezaan ketumpatan yang besar, ia mungkin membawa kepada hasil pengelompokan yang buruk
- kesannya juga bukan pada set data berdimensi tinggi yang lain; .
Atas ialah kandungan terperinci Sembilan algoritma pengelompokan untuk meneroka pembelajaran mesin tanpa pengawasan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

AI Hentai Generator
Menjana ai hentai secara percuma.

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas



Anotasi imej ialah proses mengaitkan label atau maklumat deskriptif dengan imej untuk memberi makna dan penjelasan yang lebih mendalam kepada kandungan imej. Proses ini penting untuk pembelajaran mesin, yang membantu melatih model penglihatan untuk mengenal pasti elemen individu dalam imej dengan lebih tepat. Dengan menambahkan anotasi pada imej, komputer boleh memahami semantik dan konteks di sebalik imej, dengan itu meningkatkan keupayaan untuk memahami dan menganalisis kandungan imej. Anotasi imej mempunyai pelbagai aplikasi, meliputi banyak bidang, seperti penglihatan komputer, pemprosesan bahasa semula jadi dan model penglihatan graf Ia mempunyai pelbagai aplikasi, seperti membantu kenderaan dalam mengenal pasti halangan di jalan raya, dan membantu dalam proses. pengesanan dan diagnosis penyakit melalui pengecaman imej perubatan. Artikel ini terutamanya mengesyorkan beberapa alat anotasi imej sumber terbuka dan percuma yang lebih baik. 1.Makesen

Dalam bidang pembelajaran mesin dan sains data, kebolehtafsiran model sentiasa menjadi tumpuan penyelidik dan pengamal. Dengan aplikasi meluas model yang kompleks seperti kaedah pembelajaran mendalam dan ensemble, memahami proses membuat keputusan model menjadi sangat penting. AI|XAI yang boleh dijelaskan membantu membina kepercayaan dan keyakinan dalam model pembelajaran mesin dengan meningkatkan ketelusan model. Meningkatkan ketelusan model boleh dicapai melalui kaedah seperti penggunaan meluas pelbagai model yang kompleks, serta proses membuat keputusan yang digunakan untuk menerangkan model. Kaedah ini termasuk analisis kepentingan ciri, anggaran selang ramalan model, algoritma kebolehtafsiran tempatan, dsb. Analisis kepentingan ciri boleh menerangkan proses membuat keputusan model dengan menilai tahap pengaruh model ke atas ciri input. Anggaran selang ramalan model

Dalam istilah orang awam, model pembelajaran mesin ialah fungsi matematik yang memetakan data input kepada output yang diramalkan. Secara lebih khusus, model pembelajaran mesin ialah fungsi matematik yang melaraskan parameter model dengan belajar daripada data latihan untuk meminimumkan ralat antara output yang diramalkan dan label sebenar. Terdapat banyak model dalam pembelajaran mesin, seperti model regresi logistik, model pepohon keputusan, model mesin vektor sokongan, dll. Setiap model mempunyai jenis data dan jenis masalah yang berkenaan. Pada masa yang sama, terdapat banyak persamaan antara model yang berbeza, atau terdapat laluan tersembunyi untuk evolusi model. Mengambil perceptron penyambung sebagai contoh, dengan meningkatkan bilangan lapisan tersembunyi perceptron, kita boleh mengubahnya menjadi rangkaian neural yang mendalam. Jika fungsi kernel ditambah pada perceptron, ia boleh ditukar menjadi SVM. yang ini

Artikel ini akan memperkenalkan cara mengenal pasti pemasangan lampau dan kekurangan dalam model pembelajaran mesin secara berkesan melalui keluk pembelajaran. Underfitting dan overfitting 1. Overfitting Jika model terlampau latihan pada data sehingga ia mempelajari bunyi daripadanya, maka model tersebut dikatakan overfitting. Model yang dipasang terlebih dahulu mempelajari setiap contoh dengan sempurna sehingga ia akan salah mengklasifikasikan contoh yang tidak kelihatan/baharu. Untuk model terlampau, kami akan mendapat skor set latihan yang sempurna/hampir sempurna dan set pengesahan/skor ujian yang teruk. Diubah suai sedikit: "Punca overfitting: Gunakan model yang kompleks untuk menyelesaikan masalah mudah dan mengekstrak bunyi daripada data. Kerana set data kecil sebagai set latihan mungkin tidak mewakili perwakilan yang betul bagi semua data. 2. Underfitting Heru

Pada tahun 1950-an, kecerdasan buatan (AI) dilahirkan. Ketika itulah penyelidik mendapati bahawa mesin boleh melakukan tugas seperti manusia, seperti berfikir. Kemudian, pada tahun 1960-an, Jabatan Pertahanan A.S. membiayai kecerdasan buatan dan menubuhkan makmal untuk pembangunan selanjutnya. Penyelidik sedang mencari aplikasi untuk kecerdasan buatan dalam banyak bidang, seperti penerokaan angkasa lepas dan kelangsungan hidup dalam persekitaran yang melampau. Penerokaan angkasa lepas ialah kajian tentang alam semesta, yang meliputi seluruh alam semesta di luar bumi. Angkasa lepas diklasifikasikan sebagai persekitaran yang melampau kerana keadaannya berbeza daripada di Bumi. Untuk terus hidup di angkasa, banyak faktor mesti dipertimbangkan dan langkah berjaga-jaga mesti diambil. Para saintis dan penyelidik percaya bahawa meneroka ruang dan memahami keadaan semasa segala-galanya boleh membantu memahami cara alam semesta berfungsi dan bersedia untuk menghadapi kemungkinan krisis alam sekitar

Cabaran biasa yang dihadapi oleh algoritma pembelajaran mesin dalam C++ termasuk pengurusan memori, multi-threading, pengoptimuman prestasi dan kebolehselenggaraan. Penyelesaian termasuk menggunakan penunjuk pintar, perpustakaan benang moden, arahan SIMD dan perpustakaan pihak ketiga, serta mengikuti garis panduan gaya pengekodan dan menggunakan alat automasi. Kes praktikal menunjukkan cara menggunakan perpustakaan Eigen untuk melaksanakan algoritma regresi linear, mengurus memori dengan berkesan dan menggunakan operasi matriks berprestasi tinggi.

Penterjemah |. Disemak oleh Li Rui |. Chonglou Model kecerdasan buatan (AI) dan pembelajaran mesin (ML) semakin kompleks hari ini, dan output yang dihasilkan oleh model ini adalah kotak hitam – tidak dapat dijelaskan kepada pihak berkepentingan. AI Boleh Dijelaskan (XAI) bertujuan untuk menyelesaikan masalah ini dengan membolehkan pihak berkepentingan memahami cara model ini berfungsi, memastikan mereka memahami cara model ini sebenarnya membuat keputusan, dan memastikan ketelusan dalam sistem AI, Amanah dan akauntabiliti untuk menyelesaikan masalah ini. Artikel ini meneroka pelbagai teknik kecerdasan buatan (XAI) yang boleh dijelaskan untuk menggambarkan prinsip asasnya. Beberapa sebab mengapa AI boleh dijelaskan adalah penting Kepercayaan dan ketelusan: Untuk sistem AI diterima secara meluas dan dipercayai, pengguna perlu memahami cara keputusan dibuat

MetaFAIR bekerjasama dengan Harvard untuk menyediakan rangka kerja penyelidikan baharu untuk mengoptimumkan bias data yang dijana apabila pembelajaran mesin berskala besar dilakukan. Adalah diketahui bahawa latihan model bahasa besar sering mengambil masa berbulan-bulan dan menggunakan ratusan atau bahkan ribuan GPU. Mengambil model LLaMA270B sebagai contoh, latihannya memerlukan sejumlah 1,720,320 jam GPU. Melatih model besar memberikan cabaran sistemik yang unik disebabkan oleh skala dan kerumitan beban kerja ini. Baru-baru ini, banyak institusi telah melaporkan ketidakstabilan dalam proses latihan apabila melatih model AI generatif SOTA Mereka biasanya muncul dalam bentuk lonjakan kerugian Contohnya, model PaLM Google mengalami sehingga 20 lonjakan kerugian semasa proses latihan. Bias berangka adalah punca ketidaktepatan latihan ini,
