Rumah Peranti teknologi AI Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Apr 11, 2023 pm 11:40 PM
pembelajaran mesin angkasa lepas jarak

Artikel ini dicetak semula daripada akaun awam WeChat "Hidup dalam Era Maklumat" Pengarang hidup dalam era maklumat. Untuk mencetak semula artikel ini, sila hubungi akaun awam Living in the Information Age.

Dalam pembelajaran mesin, konsep asas ialah cara menilai perbezaan antara dua sampel, supaya dapat menilai persamaan dan maklumat kategori antara kedua-dua sampel. Ukuran untuk menilai persamaan ini ialah jarak antara dua sampel dalam ruang ciri.

Terdapat banyak kaedah pengukuran berdasarkan ciri data yang berbeza. Secara umumnya, untuk dua sampel data x, y, takrifkan fungsi d(x, y) Jika ia ditakrifkan sebagai jarak antara dua sampel, maka d(x, y) perlu memenuhi sifat asas berikut :

    Bukan negatif: d(x,y)>=0
  • Identiti: d(x,y)=0 ⇔ x=y
  • Simetri: d( x,y) = d(y,x)
  • Ketaksamaan segitiga: d(x,y)
Secara umumnya, ukuran jarak biasa termasuk: jarak antara titik dalam ruang, jarak antara rentetan, persamaan set dan jarak antara pembolehubah/pengedaran konsep.

Hari ini kami akan memperkenalkan jarak antara titik yang paling biasa digunakan di angkasa lepas.

Jarak antara titik dalam ruang termasuk jenis berikut:

1 Euclidean Distance (Ecllidean Distance)

Tidak syak lagi, Euclidean. jarak ialah jarak yang paling dikenali oleh orang Ia adalah jarak garis lurus antara dua titik. Pelajar yang telah mempelajari matematik sekolah menengah rendah semua tahu cara mengira jarak antara dua titik dalam ruang dua dimensi dalam sistem koordinat Cartesan

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

The formula pengiraan ialah:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Jarak Euclidean yang dilanjutkan ke ruang N-dimensi ialah:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

2 Manhattan Distance

Jarak Manhattan juga dipanggil jarak teksi. Konsepnya berasal dari banyak blok mendatar dan menegak di Manhattan, New York macam kejiranan, kalau pemandu teksi nak berjalan dari satu titik ke satu titik, tak guna kira jarak garis lurus, sebab teksi tak boleh terbang atas bangunan. Oleh itu, jarak ini biasanya dikira dengan menolak dan menambah jarak timur-barat dan utara-selatan masing-masing dua titik Ini adalah jarak sebenar yang perlu dilalui oleh teksi.

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Seperti yang ditunjukkan dalam rajah, garisan merah dan garisan kuning ialah jarak Manhattan dari dua laluan berbeza. Secara matematik, kaedah pengiraan jarak Manhattan dalam ruang dua dimensi adalah seperti berikut:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

3. Jarak Chebyshev (Jarak Chebyshev)

Jarak Chebyshev ditakrifkan sebagai nilai maksimum perbezaan dalam nilai koordinat antara dua titik.


Contoh yang paling intuitif ialah raja dalam catur, kerana ia boleh bergerak ke sisi, lurus, dan menyerong, tetapi ia hanya boleh bergerak satu petak pada satu masa, jadi semuanya Jarak Bishev ialah jarak minimum yang dia perlukan untuk berjalan ke grid lain.

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

4 Jarak Minkowski

Jarak Min itu sendiri bukanlah jarak yang istimewa, tetapi satu formula. yang menggabungkan berbilang jarak (jarak Manhattan, jarak Euclidean, jarak Chebyshev).

Ia ditakrifkan sebagai, untuk dua pembolehubah n-dimensi, jarak Min ialah:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Apabila p=1, anda boleh melihat

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Pada masa ini ialah jarak Manhattan.

Apabila p=2, anda boleh melihat bahawa

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

ialah jarak Euclidean pada masa ini.

Apabila p=∞, anda dapat melihat bahawa

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

ialah jarak Chebyshev pada masa ini.

5 Jarak Euclidean Piawai

Jarak Euclidean boleh mengukur jarak garis lurus antara dua titik, tetapi dalam sesetengah kes, ia mungkin dipengaruhi oleh yang berbeza unit. Sebagai contoh, jika terdapat perbezaan ketinggian 5 mm dan perbezaan berat 5 kg pada masa yang sama, persepsi mungkin berbeza sama sekali. Jika kita ingin mengelompokkan tiga model, atribut masing-masing adalah seperti berikut:

A: 65000000 mg (iaitu 65 kg), 1.74 meter

B: 60000000 mg (iaitu 60 kg) , 1.70 meter

C: 65,000,000 miligram (iaitu 65 kilogram), 1.40 meter

Menurut pemahaman biasa kami, A dan B adalah model dengan angka yang lebih baik dan harus dikelaskan dalam kategori yang sama. Walau bagaimanapun, apabila benar-benar mengira dalam unit di atas, didapati perbezaan antara A dan B adalah lebih besar daripada perbezaan antara A dan C. Sebabnya ialah unit ukuran atribut yang berbeza membawa kepada perbezaan berangka yang berlebihan. Jika data yang sama ditukar kepada unit lain.

A: 65kg, 174cm

B: 60kg, 170cm

C: 65kg, 140cm

Kemudian kita akan dapat hasilnya. fikiran ialah A dan B dikelaskan dalam kategori yang sama. Oleh itu, untuk mengelakkan perbezaan tersebut disebabkan oleh unit ukuran yang berbeza, kita perlu memperkenalkan jarak Euclidean piawai. Dalam pengiraan jarak ini, setiap komponen dinormalkan kepada selang dengan min dan varians yang sama.

Anggapkan bahawa min (min) bagi set sampel X ialah m dan sisihan piawai (sisihan piawai) ialah s, maka "pembolehubah piawai" bagi 🎜>

Di mana, piawai nilai = (nilai sebelum normalisasi - min komponen) / sisihan piawai komponen. Selepas terbitan ringkas, kita boleh mendapatkan formula jarak Euclidean piawai antara dua vektor n-dimensi:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Jika timbal balik varians dianggap sebagai A berat, formula ini boleh dianggap sebagai jarak Euclidean berwajaran. Melalui operasi ini, kami secara berkesan menghapuskan perbezaan antara unit berat yang berbeza.

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

6 Jarak Lance dan Williams

Jarak Lans juga dipanggil jarak Canberra,

Ia ialah penunjuk tanpa dimensi, yang mengatasi kelemahan jarak Min yang berkaitan dengan dimensi setiap penunjuk, dan tidak sensitif kepada nilai tunggal yang besar, menjadikannya amat sesuai untuk menjadualkan data bias. Tetapi jarak ini juga tidak mengambil kira perkaitan antara pembolehubah. Oleh itu, jika anda perlu mempertimbangkan korelasi antara pembolehubah, anda masih memerlukan jarak Mahalanobis.

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

7. Jarak Mahalanobis

Selepas menormalkan nilai, adakah tiada masalah? Tak semestinya. Sebagai contoh, dalam contoh satu dimensi, jika terdapat dua kelas, satu kelas mempunyai min 0 dan varians 0.1, dan kelas lain mempunyai min 5 dan varians 5. Jadi jika mata dengan nilai 2 harus tergolong dalam kategori yang mana? Kami secara intuitif berfikir bahawa ia mestilah kategori kedua, kerana kategori pertama jelas tidak mungkin mencapai 2 secara berangka. Tetapi sebenarnya, jika dikira dari jauh, nombor 2 mesti tergolong dalam kategori pertama.

Jadi, dalam dimensi dengan varians yang kecil, perbezaan yang kecil mungkin menjadi outlier. Sebagai contoh, dalam rajah di bawah, A dan B berada pada jarak yang sama dari asal, tetapi oleh kerana keseluruhan sampel diedarkan di sepanjang paksi mendatar, titik B lebih berkemungkinan menjadi titik dalam sampel, manakala titik A lebih berkemungkinan menjadi outlier.

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Masalah juga mungkin berlaku apabila dimensi tidak diedarkan secara bebas dan sama Contohnya, titik A dan titik B dalam rajah di bawah ialah Asal-usul adalah sama jauh, tetapi taburan utama adalah serupa dengan f(x)=x, jadi A lebih seperti outlier.

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Oleh itu, kita dapat lihat dalam kes ini, jarak Euclidean yang diseragamkan juga akan menghadapi masalah, jadi kita perlu memperkenalkan jarak Mahalanobis.

Jarak Mahalanobis memutar pembolehubah mengikut komponen utama untuk menjadikan dimensi bebas antara satu sama lain, dan kemudian menyeragamkannya untuk menjadikan dimensi teragih sama rata. Komponen utama ialah arah vektor eigen, jadi anda hanya perlu berputar mengikut arah vektor eigen, dan kemudian skala masa nilai eigen. Sebagai contoh, selepas imej di atas diubah, keputusan berikut akan diperoleh:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Dapat dilihat bahawa outlier telah berjaya dipisahkan.

Jarak Mahalanobis telah dicadangkan oleh ahli matematik India Mahalanobis dan mewakili jarak kovarians data. Ia adalah kaedah yang cekap untuk mengira persamaan dua set sampel yang tidak diketahui.

Untuk vektor multivariate

dengan min Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

dan matriks kovarians Σ Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

, jarak Mahalanobisnya (jarak Malaysia bagi satu titik data) ialah:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

untuk Darjah perbezaan antara dua pembolehubah rawak X dan Y yang mematuhi taburan yang sama dan matriks kovariansnya ialah Σ Jarak Mahalanobis antara titik data x dan y ialah:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

<.>Jika matriks kovarian ialah matriks identiti, maka jarak Mahalanobis dipermudahkan kepada jarak Euclidean. Jika matriks kovarians ialah matriks pepenjuru, maka jarak Mahalanobis menjadi jarak Euclidean piawai.

8. Jarak Kosinus

Seperti namanya, jarak kosinus berasal daripada kosinus sudut dalam geometri, yang boleh digunakan untuk mengukur perbezaan arah daripada dua vektor dan bukannya jarak atau panjang. Apabila nilai kosinus ialah 0, kedua-dua vektor adalah ortogon dan sudut yang disertakan ialah 90 darjah. Semakin kecil sudut, semakin hampir nilai kosinus kepada 1, dan arahnya lebih konsisten.

Dalam ruang N-dimensi, jarak kosinus ialah:


Perlu dinyatakan bahawa jarak kosinus tidak memenuhi ketaksamaan segitiga.

9. Jarak Geodesik

Jarak geodesik pada asalnya merujuk kepada jarak terpendek antara permukaan sfera. Apabila ruang ciri ialah satah, jarak geodesik ialah jarak Euclidean. Dalam geometri bukan Euclidean, garis terpendek antara dua titik pada sfera ialah lengkok besar yang menghubungkan dua titik Sisi segi tiga dan poligon pada sfera juga terdiri daripada lengkok besar ini.

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

10. Jarak Bray Curtis

Jarak Bray Curtis digunakan terutamanya dalam Botani, Ekologi dan Sains Alam Sekitar, ia boleh digunakan untuk mengira perbezaan antara sampel. Formulanya ialah:

Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang

Nilai adalah antara [0, 1].

Atas ialah kandungan terperinci Jarak berangka berdasarkan pembelajaran mesin: jarak antara titik dalam ruang. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Cara Membuka Segala -galanya Di Myrise
4 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

15 alat anotasi imej percuma sumber terbuka disyorkan 15 alat anotasi imej percuma sumber terbuka disyorkan Mar 28, 2024 pm 01:21 PM

Anotasi imej ialah proses mengaitkan label atau maklumat deskriptif dengan imej untuk memberi makna dan penjelasan yang lebih mendalam kepada kandungan imej. Proses ini penting untuk pembelajaran mesin, yang membantu melatih model penglihatan untuk mengenal pasti elemen individu dalam imej dengan lebih tepat. Dengan menambahkan anotasi pada imej, komputer boleh memahami semantik dan konteks di sebalik imej, dengan itu meningkatkan keupayaan untuk memahami dan menganalisis kandungan imej. Anotasi imej mempunyai pelbagai aplikasi, meliputi banyak bidang, seperti penglihatan komputer, pemprosesan bahasa semula jadi dan model penglihatan graf Ia mempunyai pelbagai aplikasi, seperti membantu kenderaan dalam mengenal pasti halangan di jalan raya, dan membantu dalam proses. pengesanan dan diagnosis penyakit melalui pengecaman imej perubatan. Artikel ini terutamanya mengesyorkan beberapa alat anotasi imej sumber terbuka dan percuma yang lebih baik. 1.Makesen

Artikel ini akan membawa anda memahami SHAP: penjelasan model untuk pembelajaran mesin Artikel ini akan membawa anda memahami SHAP: penjelasan model untuk pembelajaran mesin Jun 01, 2024 am 10:58 AM

Dalam bidang pembelajaran mesin dan sains data, kebolehtafsiran model sentiasa menjadi tumpuan penyelidik dan pengamal. Dengan aplikasi meluas model yang kompleks seperti kaedah pembelajaran mendalam dan ensemble, memahami proses membuat keputusan model menjadi sangat penting. AI|XAI yang boleh dijelaskan membantu membina kepercayaan dan keyakinan dalam model pembelajaran mesin dengan meningkatkan ketelusan model. Meningkatkan ketelusan model boleh dicapai melalui kaedah seperti penggunaan meluas pelbagai model yang kompleks, serta proses membuat keputusan yang digunakan untuk menerangkan model. Kaedah ini termasuk analisis kepentingan ciri, anggaran selang ramalan model, algoritma kebolehtafsiran tempatan, dsb. Analisis kepentingan ciri boleh menerangkan proses membuat keputusan model dengan menilai tahap pengaruh model ke atas ciri input. Anggaran selang ramalan model

Telus! Analisis mendalam tentang prinsip model pembelajaran mesin utama! Telus! Analisis mendalam tentang prinsip model pembelajaran mesin utama! Apr 12, 2024 pm 05:55 PM

Dalam istilah orang awam, model pembelajaran mesin ialah fungsi matematik yang memetakan data input kepada output yang diramalkan. Secara lebih khusus, model pembelajaran mesin ialah fungsi matematik yang melaraskan parameter model dengan belajar daripada data latihan untuk meminimumkan ralat antara output yang diramalkan dan label sebenar. Terdapat banyak model dalam pembelajaran mesin, seperti model regresi logistik, model pepohon keputusan, model mesin vektor sokongan, dll. Setiap model mempunyai jenis data dan jenis masalah yang berkenaan. Pada masa yang sama, terdapat banyak persamaan antara model yang berbeza, atau terdapat laluan tersembunyi untuk evolusi model. Mengambil perceptron penyambung sebagai contoh, dengan meningkatkan bilangan lapisan tersembunyi perceptron, kita boleh mengubahnya menjadi rangkaian neural yang mendalam. Jika fungsi kernel ditambah pada perceptron, ia boleh ditukar menjadi SVM. yang ini

Kenal pasti overfitting dan underfitting melalui lengkung pembelajaran Kenal pasti overfitting dan underfitting melalui lengkung pembelajaran Apr 29, 2024 pm 06:50 PM

Artikel ini akan memperkenalkan cara mengenal pasti pemasangan lampau dan kekurangan dalam model pembelajaran mesin secara berkesan melalui keluk pembelajaran. Underfitting dan overfitting 1. Overfitting Jika model terlampau latihan pada data sehingga ia mempelajari bunyi daripadanya, maka model tersebut dikatakan overfitting. Model yang dipasang terlebih dahulu mempelajari setiap contoh dengan sempurna sehingga ia akan salah mengklasifikasikan contoh yang tidak kelihatan/baharu. Untuk model terlampau, kami akan mendapat skor set latihan yang sempurna/hampir sempurna dan set pengesahan/skor ujian yang teruk. Diubah suai sedikit: "Punca overfitting: Gunakan model yang kompleks untuk menyelesaikan masalah mudah dan mengekstrak bunyi daripada data. Kerana set data kecil sebagai set latihan mungkin tidak mewakili perwakilan yang betul bagi semua data. 2. Underfitting Heru

Evolusi kecerdasan buatan dalam penerokaan angkasa lepas dan kejuruteraan penempatan manusia Evolusi kecerdasan buatan dalam penerokaan angkasa lepas dan kejuruteraan penempatan manusia Apr 29, 2024 pm 03:25 PM

Pada tahun 1950-an, kecerdasan buatan (AI) dilahirkan. Ketika itulah penyelidik mendapati bahawa mesin boleh melakukan tugas seperti manusia, seperti berfikir. Kemudian, pada tahun 1960-an, Jabatan Pertahanan A.S. membiayai kecerdasan buatan dan menubuhkan makmal untuk pembangunan selanjutnya. Penyelidik sedang mencari aplikasi untuk kecerdasan buatan dalam banyak bidang, seperti penerokaan angkasa lepas dan kelangsungan hidup dalam persekitaran yang melampau. Penerokaan angkasa lepas ialah kajian tentang alam semesta, yang meliputi seluruh alam semesta di luar bumi. Angkasa lepas diklasifikasikan sebagai persekitaran yang melampau kerana keadaannya berbeza daripada di Bumi. Untuk terus hidup di angkasa, banyak faktor mesti dipertimbangkan dan langkah berjaga-jaga mesti diambil. Para saintis dan penyelidik percaya bahawa meneroka ruang dan memahami keadaan semasa segala-galanya boleh membantu memahami cara alam semesta berfungsi dan bersedia untuk menghadapi kemungkinan krisis alam sekitar

Melaksanakan Algoritma Pembelajaran Mesin dalam C++: Cabaran dan Penyelesaian Biasa Melaksanakan Algoritma Pembelajaran Mesin dalam C++: Cabaran dan Penyelesaian Biasa Jun 03, 2024 pm 01:25 PM

Cabaran biasa yang dihadapi oleh algoritma pembelajaran mesin dalam C++ termasuk pengurusan memori, multi-threading, pengoptimuman prestasi dan kebolehselenggaraan. Penyelesaian termasuk menggunakan penunjuk pintar, perpustakaan benang moden, arahan SIMD dan perpustakaan pihak ketiga, serta mengikuti garis panduan gaya pengekodan dan menggunakan alat automasi. Kes praktikal menunjukkan cara menggunakan perpustakaan Eigen untuk melaksanakan algoritma regresi linear, mengurus memori dengan berkesan dan menggunakan operasi matriks berprestasi tinggi.

AI yang boleh dijelaskan: Menerangkan model AI/ML yang kompleks AI yang boleh dijelaskan: Menerangkan model AI/ML yang kompleks Jun 03, 2024 pm 10:08 PM

Penterjemah |. Disemak oleh Li Rui |. Chonglou Model kecerdasan buatan (AI) dan pembelajaran mesin (ML) semakin kompleks hari ini, dan output yang dihasilkan oleh model ini adalah kotak hitam – tidak dapat dijelaskan kepada pihak berkepentingan. AI Boleh Dijelaskan (XAI) bertujuan untuk menyelesaikan masalah ini dengan membolehkan pihak berkepentingan memahami cara model ini berfungsi, memastikan mereka memahami cara model ini sebenarnya membuat keputusan, dan memastikan ketelusan dalam sistem AI, Amanah dan akauntabiliti untuk menyelesaikan masalah ini. Artikel ini meneroka pelbagai teknik kecerdasan buatan (XAI) yang boleh dijelaskan untuk menggambarkan prinsip asasnya. Beberapa sebab mengapa AI boleh dijelaskan adalah penting Kepercayaan dan ketelusan: Untuk sistem AI diterima secara meluas dan dipercayai, pengguna perlu memahami cara keputusan dibuat

Adakah Flash Attention stabil? Meta dan Harvard mendapati bahawa sisihan berat model mereka berubah-ubah mengikut urutan magnitud Adakah Flash Attention stabil? Meta dan Harvard mendapati bahawa sisihan berat model mereka berubah-ubah mengikut urutan magnitud May 30, 2024 pm 01:24 PM

MetaFAIR bekerjasama dengan Harvard untuk menyediakan rangka kerja penyelidikan baharu untuk mengoptimumkan bias data yang dijana apabila pembelajaran mesin berskala besar dilakukan. Adalah diketahui bahawa latihan model bahasa besar sering mengambil masa berbulan-bulan dan menggunakan ratusan atau bahkan ribuan GPU. Mengambil model LLaMA270B sebagai contoh, latihannya memerlukan sejumlah 1,720,320 jam GPU. Melatih model besar memberikan cabaran sistemik yang unik disebabkan oleh skala dan kerumitan beban kerja ini. Baru-baru ini, banyak institusi telah melaporkan ketidakstabilan dalam proses latihan apabila melatih model AI generatif SOTA Mereka biasanya muncul dalam bentuk lonjakan kerugian Contohnya, model PaLM Google mengalami sehingga 20 lonjakan kerugian semasa proses latihan. Bias berangka adalah punca ketidaktepatan latihan ini,

See all articles