Ini ialah konsep yang sentiasa berada di kedudukan teratas dalam teori pembelajaran mesin yang paling penting. Hampir semua algoritma dalam pembelajaran mesin (termasuk pembelajaran mendalam) berusaha untuk mencapai keseimbangan yang betul antara bias dan varians, dan rajah ini dengan jelas menerangkan tentangan antara kedua-duanya.
Gini (ukuran kekurangan kehomogenan) dan Entropi (ukuran rawak) adalah kedua-duanya keputusan A ukuran kekotoran nod dalam pokok.
Untuk kedua-dua konsep ini adalah lebih penting untuk memahami hubungan antara mereka supaya dapat memahami hubungan antara mereka dalam yang diberikan Pilih penunjuk yang sesuai untuk senario.
Kekotoran gini (pekali) secara amnya lebih mudah dikira berbanding entropi (kerana entropi melibatkan pengiraan logaritma).
Keluk ingatan kembali ketepatan menunjukkan pertukaran antara ketepatan dan panggil balik untuk ambang yang berbeza. Kawasan besar di bawah lengkung mewakili ingatan tinggi dan ketepatan tinggi, di mana ketepatan tinggi berkaitan dengan kadar penggera palsu yang rendah, dan ingatan semula tinggi berkaitan dengan kadar penggera palsu yang rendah.
Ia boleh membantu kami memilih ambang yang betul mengikut keperluan kami. Sebagai contoh, jika matlamat kita adalah untuk mengurangkan ralat jenis 1, kita perlu memilih ketepatan yang tinggi, manakala jika matlamat kita adalah untuk meminimumkan ralat jenis 2, maka kita harus memilih ambang supaya penarikan balik adalah tinggi.
Itulah sebabnya dalam gambar di bawah Precision mempunyai gelombang pada penghujungnya, manakala Recall sentiasa kekal rata.
Keluk ROC ialah graf yang menunjukkan prestasi model pengelasan pada semua ambang pengelasan.
Lengkung ini memplot dua parameter:
真阳性率<br>误报率
Kawasan di bawah lengkung ini (dipanggil AUC) juga boleh digunakan sebagai metrik prestasi . Lebih tinggi AUC, lebih baik modelnya.
用于K-means算法中最优簇数的选择。WCSS(簇内平方和)是给定簇中每个点与质心之间的平方距离之和。当我们用 K(簇数)值绘制 WCSS 时,该图看起来像一个肘部(弯头)。
随着聚类数量的增加,WCSS 值将开始下降。K = 1时WCSS值最大
它帮助我们在对高维数据执行主成分分析后,可视化每个主成分解释的变异百分比。为了选择正确数量的主成分来考虑我们的模型,我们通常会绘制此图并选择能够为我们提供足够好的总体方差百分比的值。
对于线性可分数据,我们可以进行线性回归或逻辑回归,二者都可以作为决策边界曲线/线。但是,在逻辑回归的情况下,由于通常只有 2 个类别,因此具有线性直线决策边界可能不起作用,在一条直线上值从低到高非常均匀地上升,因为它不够陡峭在值突然上升后会得到很多临界的高值或者低值,最终会错误分类。因此,"边界"区域,即概率从高到低转变的区域并不真正存在。所以一般情况下会应用 sigmoid 变换将其转换为 sigmoid 曲线,该曲线在极端情况下是平滑的,在中间几乎是线性的。
均值为0,标准差为1的特殊正态分布。
经验法则指出,按照正态分布观察到的数据中有 99.7% 位于平均值的 3 个标准差以内。根据该规则,68% 的数据在一个标准差内,95% 在两个标准差内,99.7% 在三个标准差内。10学生T分布T 分布(也称为学生 T 分布)是一系列分布,看起来几乎与正态分布曲线相同,只是更短和更宽/更胖。当我们有较小的样本时,我们使用 T分布而不是正态分布。样本量越大,t 分布越像正态分布。事实上,在 30 个样本之后,T 分布几乎与正态分布完全一样。
Kita mungkin terjumpa banyak konsep kecil tetapi kritikal yang menjadi asas untuk kita membuat keputusan atau memilih model yang betul. Konsep-konsep penting yang dinyatakan dalam artikel ini boleh diwakili oleh gambar rajah yang berkaitan konsep-konsep ini adalah sangat penting dan kita perlu mengetahui maksudnya pada kali pertama kita melihatnya gambar mewakili:
Atas ialah kandungan terperinci Sains data yang mesti diketahui: 10 konsep penting + makna 22 carta. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!