Maison > Périphériques technologiques > IA > Comment puis-je exécuter le terminal dans Google Colab?

Comment puis-je exécuter le terminal dans Google Colab?

Lisa Kudrow
Libérer: 2025-03-05 09:33:15
original
664 Les gens l'ont consulté

Google Colab: un puissant environnement de développement d'IA avec Olllama et Langchain

Google Colab, un environnement de cahier Jupyter basé sur le cloud, simplifie le codage et l'exécution Python, éliminant le besoin d'une configuration de l'environnement local. Cela le rend idéal pour la science des données, l'apprentissage automatique et les scripts généraux Python. Cependant, l'exécution directe de la commande shell est parfois nécessaire pour des tâches telles que l'installation de packages ou la gestion des fichiers. Alors que Colab offre une exécution de commande de shell in-notebook, un environnement de terminal complet offre une plus grande flexibilité. Ce guide démontre l'accès au terminal Colab, l'installation et l'utilisation d'Olllama pour accéder aux modèles d'apprentissage automatique et effectuer l'inférence à l'aide de Langchain.

Table des matières

  • Étape 1: Accès à la terminale Colab avec Colab-XTerm
  • Étape 2: Acquisition du modèle avec Olllama
  • Étape 3: Installation des bibliothèques nécessaires
  • Étape 4: Inférence avec Langchain et Olllama
  • Conclusion
  • Les questions fréquemment posées

Étape 1: Accès à la borne Colab avec Colab-XTerm

pour accéder à la borne Colab, installez et activez l'extension colab-xterm. Exécutez ces commandes dans une cellule de code Colab:

<code>!pip install colab-xterm
%load_ext colabxterm
%xterm</code>
Copier après la connexion

How Can I Run Terminal in Google Colab?

Cela lance une fenêtre de terminal dans votre session Colab. Installez Olllama via le terminal à l'aide de la commande Linux:

curl -fsSL https://ollama.com/install.sh | sh
Copier après la connexion

Étape 2: Acquisition du modèle avec Olllama

Maintenant, téléchargez et préparez des modèles d'apprentissage automatique. Utilisez le terminal pour extraire des modèles comme deepseek-r1:7b ou llama3 avec olllama:

ollama pull deepseek-r1:7b
Copier après la connexion

ou

ollama pull llama3
Copier après la connexion

Étape 3: Installation des bibliothèques nécessaires

Installez les bibliothèques Python requises pour l'interaction modèle dans une nouvelle cellule de code Colab:

!pip install langchain langchain-core langchain-community
Copier après la connexion

Ces bibliothèques facilitent l'interaction structurée du modèle de langue grande.

Étape 4: Inférence avec Langchain et Olllama

Avec les dépendances installées, utilisez Langchain pour interagir avec votre modèle. Ajoutez ce code à une cellule Colab:

from langchain_community.llms import Ollama

# Load the model
llm = Ollama(model="llama3")

# Make a request
response = llm.invoke("Tell me about Analytics Vidhya.")
print(response)
Copier après la connexion

Cela charge le modèle llama3 et génère une réponse à l'invite.

Conclusion

Ce guide démontre le tir de la terminale de Colab pour une fonctionnalité améliorée, permettant une installation de modèle transparente avec Olllama et une interaction via Langchain. Cette approche transforme Colab en une plate-forme de développement d'IA polyvalente, idéale pour expérimenter des modèles avancés et rationaliser les flux de travail d'apprentissage automatique.

Les questions fréquemment posées

Q1: Comment accéder au terminal Colab?

a1: installez colab-xterm en utilisant !pip install colab-xterm et lancez-le avec %xterm dans une cellule de code Colab.

Q2: Comment puis-je installer et utiliser Olllama dans Colab?

A2: Installez Olllama dans le terminal en utilisant curl -fsSL https://ollama.com/install.sh | sh et tracez les modèles avec ollama pull <model_name></model_name>.

Q3: Puis-je exécuter l'inférence avec Langchain et Ollama sur n'importe quel modèle?

A3: Oui, après avoir installé Langchain et téléchargé un modèle via Olllama, vous pouvez l'utiliser pour l'inférence avec llm.invoke("your prompt").

Q4: Puis-je utiliser Google Colab pour l'apprentissage en profondeur avec de grands ensembles de données?

A4: Oui, Colab prend en charge l'apprentissage en profondeur et les grands ensembles de données, en particulier avec les GPU / TPU. Colab Pro fournit des ressources accrues pour gérer des modèles et des ensembles de données plus grands.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal