Maison > développement back-end > Tutoriel Python > Utilisation de la bibliothèque gensim word2vec en Python

Utilisation de la bibliothèque gensim word2vec en Python

不言
Libérer: 2018-05-08 14:24:47
original
3588 Les gens l'ont consulté

Cet article présente principalement l'utilisation de la bibliothèque gensim word2vec en Python. Il a une certaine valeur de référence. Maintenant, je le partage avec vous. Les amis dans le besoin peuvent s'y référer

pip install gensim Après avoir installé la bibliothèque. , vous pouvez importer et utiliser :

1. Définition du modèle de formation

from gensim.models import Word2Vec 
model = Word2Vec(sentences, sg=1, size=100, window=5, min_count=5, negative=3, sample=0.001, hs=1, workers=4)
Copier après la connexion

Explication du paramètre :

1.sg=1 est l'algorithme skip-gram, qui est sensible aux mots basse fréquence ; Algorithme CBOW.

2.size est la dimension du vecteur de mot de sortie. Si la valeur est trop petite, le mappage de mots affectera les résultats en raison de conflits. Si la valeur est trop grande, elle consommera de la mémoire et ralentira. le calcul de l'algorithme. Généralement, la valeur est comprise entre 100 et 200.

3.window est la distance maximale entre le mot actuel et le mot cible dans la phrase. 3 signifie regarder les mots 3-b avant le mot cible et les mots b après (b est aléatoire entre 0 et 3). ).

4.min_count est utilisé pour filtrer les mots avec une fréquence inférieure à min-count sera ignoré.

5. Le négatif et l'échantillon peuvent être ajustés en fonction des résultats de l'entraînement. L'échantillon signifie que les mots à fréquence plus élevée sont sous-échantillonnés de manière aléatoire jusqu'au seuil défini.

6.hs=1 signifie que le softmax hiérarchique sera utilisé par défaut hs=0 et que négatif n'est pas 0, un échantillonnage négatif sera sélectionné.

7. Les Workers contrôlent le parallélisme de la formation. Ce paramètre n'est valide qu'après l'installation de Cpython, sinon un seul cœur peut être utilisé.

Pour une description détaillée des paramètres, veuillez consulter le code source de word2vec.

2. Sauvegarde et chargement du modèle après l'entraînement

model.save(fname) 
model = Word2Vec.load(fname)
Copier après la connexion

3. Utilisation du modèle (calcul de similarité des mots, etc.)

model.most_similar(positive=['woman', 'king'], negative=['man']) 
#输出[('queen', 0.50882536), ...] 
 
model.doesnt_match("breakfast cereal dinner lunch".split()) 
#输出'cereal' 
 
model.similarity('woman', 'man') 
#输出0.73723527 
 
model['computer'] # raw numpy vector of a word 
#输出array([-0.00449447, -0.00310097, 0.02421786, ...], dtype=float32)
Copier après la connexion

Les autres contenus ne seront pas être décrit en détail, veuillez vous référer à la description officielle de word2vec de gensim pour plus de détails, qui est très détaillée.


Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:php.cn
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal