Ubuntu14.04-Installation
pip install xgboost
Fehlerbericht
sudo apt-get update
Das Ergebnis ist der gleiche Fehler
Lösung:
sudo -H pip install --pre xgboost Successfully installed xgboost Cleaning up...
Erfolg!
Überanpassung
Wenn Sie feststellen, dass die Trainingsgenauigkeit hoch, aber die Erkennungsgenauigkeit niedrig ist, stoßen Sie wahrscheinlich auf ein Überanpassungsproblem.
xgboost ist ein schnelles und effektives Boosting-Modell.
Boosting Classifier ist ein integriertes Lernmodell. Die Grundidee besteht darin, Hunderte oder Tausende von Baummodellen mit geringer Klassifizierungsgenauigkeit zu einem Modell mit hoher Genauigkeit zu kombinieren. Dieses Modell iteriert weiter und generiert mit jeder Iteration einen neuen Baum. Es wurden viele Methoden vorgeschlagen, um bei jedem Schritt einen sinnvollen Baum zu generieren. Hier stellen wir kurz die von Friedman vorgeschlagene Gradient Boosting Machine vor. Bei der Generierung jedes Baums wird die Idee des Gradientenabstiegs verwendet, wodurch ein weiterer Schritt zur Minimierung der gegebenen Zielfunktion basierend auf allen zuvor generierten Bäumen unternommen wird. Bei angemessenen Parametereinstellungen müssen wir häufig eine bestimmte Anzahl von Bäumen generieren, um eine zufriedenstellende Genauigkeit zu erreichen. Wenn der Datensatz groß und komplex ist, benötigen wir möglicherweise Tausende von iterativen Operationen. Wenn die Erstellung eines Baummodells einige Sekunden dauert, sollten Sie sich aufgrund der zeitaufwändigen Operation so vieler Iterationen auf das ruhige Denken konzentrieren können ...
Jetzt hoffen wir, dieses Problem durch das xgboost-Tool besser lösen zu können. Der vollständige Name von xgboost ist eXtreme Gradient Boosting. Wie der Name schon sagt, handelt es sich um eine C++-Implementierung von Gradient Boosting Machine. Der Autor ist Chen Tianqi, ein Master, der maschinelles Lernen an der University of Washington studiert. Während seiner Forschung hatte er das Gefühl, dass ihm die Berechnungsgeschwindigkeit und -genauigkeit der vorhandenen Bibliotheken Grenzen setzten, also begann er vor einem Jahr mit dem Aufbau des xgboost-Projekts, das letzten Sommer nach und nach Gestalt annahm. Das größte Merkmal von xgboost ist, dass es automatisch das Multithreading der CPU zur Parallelisierung nutzen und gleichzeitig den Algorithmus verbessern kann, um die Genauigkeit zu erhöhen . Sein Debüt war der Higgs-Signalidentifizierungswettbewerb von Kaggle. Aufgrund seiner herausragenden Effizienz und hohen Vorhersagegenauigkeit erregte es große Aufmerksamkeit bei den Teilnehmern im Wettbewerbsforum und belegte einen Platz im harten Wettbewerb von mehr als 1.700 Teams. Da seine Beliebtheit in der Kaggle-Community zunimmt, hat kürzlich ein Team mit Hilfe von xgboost den ersten Platz im Wettbewerb gewonnen.
Für die Bequemlichkeit aller hat Chen Tianqi xgboost in eine Python-Bibliothek gekapselt. Ich hatte das Glück, mit ihm zusammenzuarbeiten, um eine R-Sprachschnittstelle für das xgboost-Tool zu erstellen und diese an CRAN einzureichen. Einige Benutzer haben es auch in eine Julia-Bibliothek gekapselt. Die Funktionen der Python- und R-Schnittstellen wurden ständig aktualisiert. Nachfolgend können Sie sich über die allgemeinen Funktionen informieren und dann die Sprache auswählen, mit der Sie am besten vertraut sind. Ipython-Notizbuch Verwenden Sie die Befehlszeile , umipython notebook
Das obige ist der detaillierte Inhalt vonPython einige Installationsmethoden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!