


Erstellen Sie Ihren eigenen benutzerdefinierten LLM-Agenten mithilfe von Open-Source-Modellen (Lama)
In diesem Artikel erfahren Sie, wie Sie einen benutzerdefinierten Agenten erstellen, der ein Open-Source-LLM (llama3.1) verwendet, das lokal auf unserem PC ausgeführt wird. Wir werden auch Ollama und LangChain verwenden.
Gliederung
- Ollama installieren
- Modell ziehen
- Modell dienen
- Erstellen Sie einen neuen Ordner und öffnen Sie ihn mit einem Code-Editor
- Erstellen und aktivieren Sie eine virtuelle Umgebung
- Installieren Sie langchain langchain-ollama
- Benutzerdefinierten Agenten mit Open-Source-Modell in Python erstellen
- Fazit
Installieren Sie Ollama
Befolgen Sie die Anweisungen basierend auf Ihrem Betriebssystemtyp in der GitHub-README-Datei, um Ollama zu installieren:
https://github.com/ollama/ollama
Ich verwende einen Linux-basierten PC und führe daher den folgenden Befehl in meinem Terminal aus:
curl -fsSL https://ollama.com/install.sh | sh
Modell ziehen
Rufen Sie das verfügbare LLM-Modell mit dem folgenden Befehl ab:
ollama pull llama3.1
Dadurch wird die standardmäßig getaggte Version des Modells heruntergeladen. Normalerweise verweist die Standardeinstellung auf das neueste Modell mit den kleinsten Parametern. In diesem Fall handelt es sich um das Modell llama3.1:8b.
Um eine andere Version des Modells herunterzuladen, gehen Sie zu: https://ollama.com/library/llama3.1, wählen Sie die zu installierende Version aus und führen Sie dann den Ollama-Pull-Befehl mit dem Modell und seiner Versionsnummer aus . Beispiel: ollama pull llama3.1:70b
Auf dem Mac werden die Modelle nach ~/.ollama/models heruntergeladen
Unter Linux (oder WSL) werden die Modelle unter /usr/share/ollama/.ollama/models gespeichert
Modell dienen
Führen Sie den folgenden Befehl aus, um Ollama zu starten, ohne die Desktop-Anwendung auszuführen.
ollama serve
Alle Modelle werden automatisch auf localhost:11434 bereitgestellt
Erstellen Sie einen neuen Ordner und öffnen Sie ihn mit einem Code-Editor
Erstellen Sie einen neuen Ordner auf Ihrem Computer und öffnen Sie ihn dann mit einem Code-Editor wie VS Code.
Erstellen und aktivieren Sie eine virtuelle Umgebung
Öffnen Sie das Terminal. Verwenden Sie den folgenden Befehl, um eine virtuelle Umgebung .venv zu erstellen und zu aktivieren:
python3 -m venv .venv
source .venv/bin/activate
Installieren Sie langchain langchain-ollama
Führen Sie den folgenden Befehl aus, um langchain und langchain-ollama zu installieren:
pip install -U langchain langchain-ollama
Der obige Befehl installiert oder aktualisiert die Pakete LangChain und LangChain-Ollama in Python. Das Flag -U stellt sicher, dass die neuesten Versionen dieser Pakete installiert werden und alle älteren Versionen ersetzen, die möglicherweise bereits vorhanden sind.
Erstellen Sie einen benutzerdefinierten Agenten mit Open-Source-Modell in Python
Erstellen Sie eine Python-Datei, zum Beispiel: main.py, und fügen Sie den folgenden Code hinzu:
from langchain_ollama import ChatOllama from langchain.agents import tool from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder from langchain.agents.format_scratchpad.openai_tools import ( format_to_openai_tool_messages, ) from langchain.agents import AgentExecutor from langchain.agents.output_parsers.openai_tools import OpenAIToolsAgentOutputParser llm = ChatOllama( model="llama3.1", temperature=0, verbose=True ) @tool def get_word_length(word: str) -> int: """Returns the length of a word.""" return len(word) tools = [get_word_length] prompt = ChatPromptTemplate.from_messages( [ ( "system", "You are very powerful assistant", ), ("user", "{input}"), MessagesPlaceholder(variable_name="agent_scratchpad"), ] ) llm_with_tools = llm.bind_tools(tools) agent = ( { "input": lambda x: x["input"], "agent_scratchpad": lambda x: format_to_openai_tool_messages( x["intermediate_steps"] ), } | prompt | llm_with_tools | OpenAIToolsAgentOutputParser() ) # Create an agent executor by passing in the agent and tools agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True) result = agent_executor.invoke({"input": "How many letters in the word educa"}) if result: print(f"[Output] --> {result['output']}") else: print('There are no result..')
Das obige Code-Snippet richtet einen LangChain-Agenten ein, der das ChatOllama-Modell (llama3.1) verwendet, um Benutzereingaben zu verarbeiten und ein benutzerdefiniertes Tool zu verwenden, das die Wortlänge berechnet. Es definiert eine Eingabeaufforderungsvorlage für den Agenten, bindet das Tool an das Sprachmodell und erstellt einen Agenten, der Eingaben verarbeitet und Zwischenschritte formatiert. Schließlich wird ein AgentExecutor erstellt, um den Agenten mit einer bestimmten Eingabe aufzurufen. Wir stellen eine einfache Frage: „Wie viele Buchstaben hat das Wort educa?“ und drucken dann die Ausgabe aus oder geben an, ob kein Ergebnis gefunden wurde.
Wenn wir laufen, erhalten wir folgendes Ergebnis:
> Entering new AgentExecutor chain... Invoking: `get_word_length` with `{'word': 'educa'}` 5The word "educa" has 5 letters. > Finished chain. [Output] --> The word "educa" has 5 letters.
Sie sehen, dass der Agent das Modell (llama3.1) verwendet hat, um das Tool korrekt aufzurufen und die Anzahl der Buchstaben im Wort zu ermitteln.
Abschluss
Danke fürs Lesen.
Sehen Sie sich das Ollama-Repo hier an: https://github.com/ollama/ollama
Das obige ist der detaillierte Inhalt vonErstellen Sie Ihren eigenen benutzerdefinierten LLM-Agenten mithilfe von Open-Source-Modellen (Lama). Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Python ist leichter zu lernen und zu verwenden, während C leistungsfähiger, aber komplexer ist. 1. Python -Syntax ist prägnant und für Anfänger geeignet. Durch die dynamische Tippen und die automatische Speicherverwaltung können Sie die Verwendung einfach zu verwenden, kann jedoch zur Laufzeitfehler führen. 2.C bietet Steuerung und erweiterte Funktionen auf niedrigem Niveau, geeignet für Hochleistungsanwendungen, hat jedoch einen hohen Lernschwellenwert und erfordert manuellem Speicher und Typensicherheitsmanagement.

Um die Effizienz des Lernens von Python in einer begrenzten Zeit zu maximieren, können Sie Pythons DateTime-, Zeit- und Zeitplanmodule verwenden. 1. Das DateTime -Modul wird verwendet, um die Lernzeit aufzuzeichnen und zu planen. 2. Das Zeitmodul hilft, die Studie zu setzen und Zeit zu ruhen. 3. Das Zeitplanmodul arrangiert automatisch wöchentliche Lernaufgaben.

Python ist in der Entwicklungseffizienz besser als C, aber C ist in der Ausführungsleistung höher. 1. Pythons prägnante Syntax und reiche Bibliotheken verbessern die Entwicklungseffizienz. 2. Die Kompilierungsmerkmale von Compilation und die Hardwarekontrolle verbessern die Ausführungsleistung. Bei einer Auswahl müssen Sie die Entwicklungsgeschwindigkeit und die Ausführungseffizienz basierend auf den Projektanforderungen abwägen.

Ist es genug, um Python für zwei Stunden am Tag zu lernen? Es hängt von Ihren Zielen und Lernmethoden ab. 1) Entwickeln Sie einen klaren Lernplan, 2) Wählen Sie geeignete Lernressourcen und -methoden aus, 3) praktizieren und prüfen und konsolidieren Sie praktische Praxis und Überprüfung und konsolidieren Sie und Sie können die Grundkenntnisse und die erweiterten Funktionen von Python während dieser Zeit nach und nach beherrschen.

PythonlistsarePartThestandardlibrary, whilearraysarenot.listarebuilt-in, vielseitig und UNDUSEDFORSPORINGECollections, während dieArrayRay-thearrayModulei und loses und loses und losesaluseduetolimitedFunctionality.

Python und C haben jeweils ihre eigenen Vorteile, und die Wahl sollte auf Projektanforderungen beruhen. 1) Python ist aufgrund seiner prägnanten Syntax und der dynamischen Typisierung für die schnelle Entwicklung und Datenverarbeitung geeignet. 2) C ist aufgrund seiner statischen Tipp- und manuellen Speicherverwaltung für hohe Leistung und Systemprogrammierung geeignet.

Python zeichnet sich in Automatisierung, Skript und Aufgabenverwaltung aus. 1) Automatisierung: Die Sicherungssicherung wird durch Standardbibliotheken wie OS und Shutil realisiert. 2) Skriptschreiben: Verwenden Sie die PSUTIL -Bibliothek, um die Systemressourcen zu überwachen. 3) Aufgabenverwaltung: Verwenden Sie die Zeitplanbibliothek, um Aufgaben zu planen. Die Benutzerfreundlichkeit von Python und die Unterstützung der reichhaltigen Bibliothek machen es zum bevorzugten Werkzeug in diesen Bereichen.

Zu den wichtigsten Anwendungen von Python in der Webentwicklung gehören die Verwendung von Django- und Flask -Frameworks, API -Entwicklung, Datenanalyse und Visualisierung, maschinelles Lernen und KI sowie Leistungsoptimierung. 1. Django und Flask Framework: Django eignet sich für die schnelle Entwicklung komplexer Anwendungen, und Flask eignet sich für kleine oder hochmobile Projekte. 2. API -Entwicklung: Verwenden Sie Flask oder Djangorestframework, um RESTFUFFUPI zu erstellen. 3. Datenanalyse und Visualisierung: Verwenden Sie Python, um Daten zu verarbeiten und über die Webschnittstelle anzuzeigen. 4. Maschinelles Lernen und KI: Python wird verwendet, um intelligente Webanwendungen zu erstellen. 5. Leistungsoptimierung: optimiert durch asynchrones Programmieren, Caching und Code
