Der Blog, den ich als Quelle verwendet habe:
https://dev.to/devopspass-ai/workshop-make-your-first-ai-app-in-a-few-clicks-with-pythonollamallama3-31ib
Nachdem ich den Leitfaden von DevOps Pass AI zum Erstellen einer KI-App mit Ollama entdeckt hatte, beschloss ich, die Funktionsweise zu erkunden und meine Fragen und Erkenntnisse auf dem Weg zu dokumentieren. Folgendes habe ich beim Erstellen meiner ersten KI-Chat-Anwendung entdeckt.
Erste Fragen, die ich hatte
Als ich das Tutorial zum ersten Mal durchlas, kamen mir mehrere Fragen in den Sinn:
Lassen Sie uns durchgehen, was ich gelernt habe, während ich jeden dieser Aspekte untersucht habe.
Grundlegendes zum lokalen KI-Setup
Das erste Interessante, was mir auffiel, war der Einsatz lokaler KI durch Ollama. Nachdem ich mich umgehört und getestet hatte, fand ich einige entscheidende Vorteile:
Der Einrichtungsprozess war unkompliziert: (Bash)
Ollama servieren
ollama pull llama3
Anfangs hatte ich Bedenken wegen der Modellgröße von 4,7 GB, aber der Download verlief schnell über meine Verbindung und es läuft selbst auf meinem bescheidenen Entwicklungscomputer reibungslos.
Erkunden der Chat-Anwendung
Das Faszinierendste war, wie einfach und dennoch funktional die Chat-Anwendung ist. Lassen Sie uns zusammenfassen, was ich über die einzelnen Komponenten gelernt habe:
Chat-Verlaufsverwaltung
Ich war besonders neugierig, wie der Chatverlauf funktioniert. Der Code verwendet einen cleveren Ansatz: (python)
file_path = sys.argv[1] '.json'
wenn os.path.exists(file_path):
mit open(file_path, 'r') as f:
Nachrichten = json.load(f)
Das bedeutet, dass jede Chat-Sitzung ihre eigene Verlaufsdatei verwaltet. Ich habe dies getestet, indem ich mehrere Konversationen gestartet habe: (Bash)
python app1.py programming_help
python app1.py devops_queries
bashCopypython app1.py programming_help
python app1.py devops_queries
Jeder hat seine eigene JSON-Datei erstellt, um Konversationen getrennt und dauerhaft zu halten.
Die KI-Antwortverarbeitung
Eine Sache, die meine Aufmerksamkeit erregte, war die Implementierung der Streaming-Antwort:
pythonCopystream = ollama.chat(
model='llama3',
Nachrichten=Nachrichten,
stream=True,
)
für Chunk im Stream:
print(chunk['message']['content'], end='', flush=True)
Dies verleiht dem Gespräch ein viel natürlicheres Gefühl, da die Antworten nach und nach wie menschliches Tippen und nicht wie alle auf einmal erscheinen.
Testen verschiedener Anwendungsfälle
Ich habe mit verschiedenen Arten von Fragen experimentiert, um die Fähigkeiten des Modells zu verstehen:
Technische Fragen
Kopieren>>> Wie kann ich die Kubernetes-Überwachung einrichten?
Die Antworten waren detailliert und technisch korrekt.
Codegenerierung
Kopieren>>> Schreiben Sie eine Python-Funktion, um die CPU-Auslastung zu überwachen
Es wurden funktionierende Codebeispiele mit Erläuterungen bereitgestellt.
Kontextbezogene Gespräche
Kopieren>>> Was sind die Best Practices dafür?
Das Modell behielt den Kontext früherer Fragen effektiv bei.
Was ich über Leistung gelernt habe
Einige interessante Beobachtungen zum lokalen Ausführen von KI:
Die erste Reaktion nach dem Start ist etwas langsamer (Aufwärmen des Modells)
Nachfolgende Antworten erfolgen schnell
Die Antwortqualität entspricht vielen cloudbasierten Diensten
Keine Drosselung oder Ratenbegrenzungen, über die Sie sich Sorgen machen müssen
Fragen, die ich noch habe
Nachdem ich die Anwendung erstellt und getestet habe, bin ich neugierig auf:
Wie kann das Modell für bestimmte Anwendungsfälle optimiert werden?
Können wir das Modell für schnellere Antworten optimieren?
Wie geht man am besten mit Fehlern oder unerwarteten Reaktionen um?
Fazit: Lohnt sich der Bau?
Nachdem ich mit diesem Setup experimentiert habe, würde ich sagen, dass es auf jeden Fall einen Versuch wert ist, wenn Sie:
Möchten Sie mehr über KI-Integration erfahren
Brauchen Sie datenschutzorientierte KI-Lösungen
Sind daran interessiert, benutzerdefinierte KI-Tools zu entwickeln
Sie möchten API-Kosten für KI-Dienste vermeiden
Die Lernkurve ist überraschend sanft und die Ergebnisse sind beeindruckend für ein lokales Setup.
Fragen an die Community
Hat sonst noch jemand ähnliche lokale KI-Anwendungen erstellt?
Welche anderen Modelle haben Sie mit Ollama ausprobiert?
Wie gehen Sie mit Fehlerfällen in Ihren KI-Anwendungen um?
Lassen Sie es mich in den Kommentaren wissen – ich bin besonders daran interessiert, von verschiedenen Anwendungsfällen und Verbesserungen zu hören!
Das obige ist der detaillierte Inhalt vonMeine erste KI-Chat-App erstellen: Von DevOps lernen Pass AIs Ollama-Integration. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!