Umfassender Leitfaden zur Terminologie für maschinelles Lernen

WBOY
Freigeben: 2024-07-26 12:58:51
Original
340 Leute haben es durchsucht

Comprehensive Machine Learning Terminology Guide

Einführung

Willkommen beim umfassenden Leitfaden zur Terminologie für maschinelles Lernen! Ganz gleich, ob Sie ein Neuling auf dem Gebiet des maschinellen Lernens oder ein erfahrener Praktiker sind, der seinen Wortschatz auffrischen möchte, dieser Leitfaden soll Ihre Anlaufstelle sein, um die Schlüsselbegriffe und -konzepte zu verstehen, die die Grundlage von ML bilden.


Grundlegende Konzepte

Maschinelles Lernen (ML): Eine Teilmenge der künstlichen Intelligenz, die sich auf den Aufbau von Systemen konzentriert, die aus Daten lernen und Entscheidungen auf deren Grundlage treffen können.

Künstliche Intelligenz (KI): Das breitere Feld der Schaffung intelligenter Maschinen, die menschliche Denkfähigkeit und Verhalten simulieren können.

Deep Learning: Eine Teilmenge des maschinellen Lernens, die auf künstlichen neuronalen Netzen mit mehreren Schichten basiert.

Datensatz: Eine Sammlung von Daten, die zum Trainieren und Testen von Modellen für maschinelles Lernen verwendet werden.

Merkmal: Eine einzelne messbare Eigenschaft oder Charakteristik eines beobachteten Phänomens.

Label: Die Zielvariable, die wir beim überwachten Lernen vorhersagen möchten.

Modell: Eine mathematische Darstellung eines realen Prozesses, gelernt aus Daten.

Algorithmus: Ein schrittweises Verfahren oder eine Formel zur Lösung eines Problems.

Training: Der Prozess, einem Modell beizubringen, Vorhersagen oder Entscheidungen auf der Grundlage von Daten zu treffen.

Inferenz: Verwendung eines trainierten Modells, um Vorhersagen zu neuen, unsichtbaren Daten zu treffen.


Arten des maschinellen Lernens

Überwachtes Lernen: Lernen aus gekennzeichneten Daten, um Ergebnisse für unvorhergesehene Daten vorherzusagen.

Unüberwachtes Lernen: Finden versteckter Muster oder intrinsischer Strukturen in Eingabedaten ohne gekennzeichnete Antworten.

Halbüberwachtes Lernen: Lernen aus einer Kombination aus gekennzeichneten und unbeschrifteten Daten.

Reinforcement Learning: Lernen, Entscheidungen durch Interaktion mit einer Umgebung zu treffen.

Lernen übertragen: Anwenden des bei einer Aufgabe gewonnenen Wissens auf eine verwandte Aufgabe.


Modellbewertung und Metriken

Genauigkeit: Der Anteil richtiger Vorhersagen an der Gesamtzahl der untersuchten Fälle.

Präzision: Der Anteil wahrhaft positiver Vorhersagen an allen positiven Vorhersagen.

Rückruf: Der Anteil der wirklich positiven Vorhersagen an allen tatsächlich positiven Fällen.

F1-Score: Das harmonische Mittel aus Präzision und Erinnerung.

ROC-Kurve: Eine grafische Darstellung, die die Diagnosefähigkeit eines binären Klassifikationssystems veranschaulicht.

AUC (Area Under the Curve): Ein Maß für die Fähigkeit eines Klassifikators, zwischen Klassen zu unterscheiden.

Verwirrungsmatrix: Eine Tabelle zur Beschreibung der Leistung eines Klassifizierungsmodells.

Kreuzvalidierung: Ein Resampling-Verfahren zur Bewertung von Modellen für maschinelles Lernen anhand einer begrenzten Datenstichprobe.

Überanpassung: Wenn ein Modell die Trainingsdaten zu gut lernt, einschließlich Rauschen und Schwankungen.

Unteranpassung: Wenn ein Modell zu einfach ist, um die zugrunde liegende Struktur der Daten zu erfassen.


Neuronale Netze und Deep Learning

Neuron: Die Grundeinheit eines neuronalen Netzwerks, lose nach dem Vorbild des biologischen Neurons.

Aktivierungsfunktion: Eine Funktion, die die Ausgabe eines Neurons anhand einer Eingabe oder eines Satzes von Eingaben bestimmt.

Gewichte: Parameter innerhalb eines neuronalen Netzwerks, die die Stärke der Verbindung zwischen Neuronen bestimmen.

Bias: Ein zusätzlicher Parameter in neuronalen Netzen, der verwendet wird, um die Ausgabe zusammen mit der gewichteten Summe der Eingaben an das Neuron anzupassen.

Backpropagation: Ein Algorithmus zum Trainieren neuronaler Netzwerke durch iteratives Anpassen der Gewichte des Netzwerks basierend auf dem Fehler in seinen Vorhersagen.

Gradientenabstieg: Ein Optimierungsalgorithmus zur Minimierung der Verlustfunktion durch iterative Bewegung in Richtung des steilsten Abstiegs.

Epoche: Ein vollständiger Durchgang durch den gesamten Trainingsdatensatz.

Stapel: Eine Teilmenge der Trainingsdaten, die in einer Iteration des Modelltrainings verwendet werden.

Lernrate: Ein Hyperparameter, der steuert, wie stark das Modell als Reaktion auf den geschätzten Fehler bei jeder Aktualisierung der Modellgewichte geändert werden soll.

Convolutional Neural Network (CNN): Eine Art neuronales Netzwerk, das häufig zur Bilderkennung und -verarbeitung verwendet wird.

Recurrent Neural Network (RNN): Eine Art neuronales Netzwerk, das darauf ausgelegt ist, Muster in Datensequenzen zu erkennen.

Long Short-Term Memory (LSTM): Eine Art RNN, das in der Lage ist, langfristige Abhängigkeiten zu lernen.

Transformer: Eine Modellarchitektur, die vollständig auf einem Aufmerksamkeitsmechanismus basiert, um globale Abhängigkeiten zwischen Eingabe und Ausgabe zu zeichnen.


Feature Engineering und Auswahl

Feature Engineering: Der Prozess der Nutzung von Domänenwissen, um Features aus Rohdaten zu extrahieren.

Feature-Auswahl: Der Prozess der Auswahl einer Teilmenge relevanter Features zur Verwendung in der Modellkonstruktion.

Dimensionalitätsreduktion: Techniken zur Reduzierung der Anzahl von Eingabevariablen in einem Datensatz.

Hauptkomponentenanalyse (PCA): Ein statistisches Verfahren, das eine orthogonale Transformation verwendet, um eine Reihe von Beobachtungen möglicherweise korrelierter Variablen in eine Reihe von Werten linear unkorrelierter Variablen umzuwandeln.


Ensemble-Methoden

Ensemble-Lernen: Der Prozess der Kombination mehrerer Modelle, um ein Computational-Intelligence-Problem zu lösen.

Bagging: Eine Ensemble-Methode, die mehrere Teilmengen der Trainingsdaten verwendet, um verschiedene Modelle zu trainieren.

Boosting: Eine Ensemble-Methode, die schwache Lernende kombiniert, um einen starken Lernenden zu schaffen.

Random Forest: Eine Ensemble-Lernmethode, die eine Vielzahl von Entscheidungsbäumen erstellt.


Verarbeitung natürlicher Sprache (NLP)

Tokenisierung: Der Prozess der Zerlegung von Text in einzelne Wörter oder Unterwörter.

Stemming: Der Prozess der Reduzierung flektierter Wörter auf ihre Wortstamm- oder Wurzelform.

Lemmatisierung: Der Prozess der Gruppierung verschiedener flektierter Formen eines Wortes.

Worteinbettung: Eine erlernte Darstellung für Text, bei der Wörter mit ähnlicher Bedeutung eine ähnliche Darstellung haben.

Named Entity Recognition (NER): Die Aufgabe, benannte Entitäten im Text zu identifizieren und zu klassifizieren.

Stimmungsanalyse: Der Einsatz der Verarbeitung natürlicher Sprache, um subjektive Informationen aus Text zu identifizieren und zu extrahieren.


Verstärkungslernen

Agent: Der Lernende oder Entscheidungsträger in einem verstärkten Lernszenario.

Umgebung: Die Welt, in der der Agent agiert und lernt.

Zustand: Die aktuelle Situation oder der aktuelle Zustand des Agenten in der Umgebung.

Aktion: Eine Bewegung oder Entscheidung des Agenten.

Belohnung: Das Feedback aus der Umgebung zur Bewertung der vom Agenten ergriffenen Maßnahmen.

Richtlinie: Eine Strategie, die der Agent verwendet, um die nächste Aktion basierend auf dem aktuellen Status zu bestimmen.


Fortgeschrittene Konzepte

Generative Adversarial Network (GAN): Eine Klasse von Frameworks für maschinelles Lernen, bei denen zwei neuronale Netze miteinander konkurrieren.

Aufmerksamkeitsmechanismus: Eine Technik, die kognitive Aufmerksamkeit nachahmt, indem sie die wichtigen Teile der Eingabedaten verstärkt und die irrelevanten Teile verringert.

Transfer-Lernen: Ein Forschungsproblem im maschinellen Lernen, das sich darauf konzentriert, bei der Lösung eines Problems gewonnenes Wissen zu speichern und auf ein anderes, aber verwandtes Problem anzuwenden.

Few-Shot Learning: Eine Art maschinelles Lernen, bei dem ein Modell darauf trainiert wird, neue Klassen anhand nur weniger Beispiele zu erkennen.

Erklärbare KI (XAI): Künstliche Intelligenzsysteme, deren Ergebnisse für Menschen verständlich sind.

Federated Learning: Eine maschinelle Lerntechnik, die einen Algorithmus auf mehreren dezentralen Geräten oder Servern trainiert, die lokale Datenproben speichern.

AutoML: Der Prozess der Automatisierung des End-to-End-Prozesses der Anwendung maschinellen Lernens auf reale Probleme.


Abschluss

Wenn Sie dies lesen, vielen Dank! Ich schätze es sehr ❤️.

Folgen Sie mir auf Twitter appyzdl5 für regelmäßige Updates, Einblicke und spannende Gespräche über ML.

Mein Github mit Projekten wie miniGit und ML-Algen von Grund auf: @appyzdl

Das obige ist der detaillierte Inhalt vonUmfassender Leitfaden zur Terminologie für maschinelles Lernen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!