Deepseek hat die KI -Community im Sturm im Sturm erobert, wobei bis heute 68 Modelle auf dem Umarmungsgesicht erhältlich sind. Auf diese Familie von Open-Source-Modellen kann durch umarmendes Gesicht oder Ollama zugegriffen werden, während Deepseek-R1 und Deepseek-V3 direkt zur Inferenz über Deepseek Chat verwendet werden kann. In diesem Blog werden wir die Modellaufstellung von Deepseek untersuchen und Sie durch das Ausführen dieser Modelle mithilfe von Google Colab und Ollama führen.
Lesen Sie auch: Erstellen der AI-Anwendung mit Deepseek-V3
Deepseek R1 auf OllamaUm Deepseek -Modelle auf Ihrem lokalen Computer auszuführen, müssen Sie Ollama installieren:
curl -fsSL https://ollama.com/install.sh | sh
Sobald Ollama installiert ist, öffnen Sie Ihre Befehlszeilenschnittstelle (CLI) und ziehen Sie das Modell:
ollama pull deepseek-r1:1.5b
Sie können hier andere Deepseek -Modelle untersuchen, die hier auf Ollama verfügbar sind: Ollama -Modellsuche.
Dieser Schritt kann einige Zeit dauern. Warten Sie also, bis der Download abgeschlossen ist.
ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
Sobald das Modell heruntergeladen wurde, können Sie es mit dem Befehl ausführen:
curl -fsSL https://ollama.com/install.sh | sh
Das Modell ist jetzt zur Verwendung auf dem lokalen Computer verfügbar und beantwortet meine Fragen ohne Schluckauf.
In diesem Abschnitt werden wir Deepseek-Janus-Pro-1b mit Google Colab ausprobieren. Stellen Sie vor dem Start die Laufzeit auf die T4 -GPU ein, um eine optimale Leistung zu erhalten.
Führen Sie den folgenden Befehl in einem Colab -Notizbuch aus:
ollama pull deepseek-r1:1.5b
? Erforschen Sie mehr Deepseek -Modelle auf GitHub: Deepseek AI Github Repository
installieren
Navigieren Sie zum geklonten Verzeichnis und installieren Sie die erforderlichen Pakete:ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
Jetzt importieren wir die erforderlichen Bibliotheken und laden das Modell in cuda (gpu)
:ollama run deepseek-r1:1.5b
Übergeben wir jetzt ein Bild
an das Modell und generieren Sie eine Antwort.? Eingabebild
!git clone https://github.com/deepseek-ai/Janus.git
%cd Janus !pip install -e . !pip install flash-attn
Ausgabe:
& lt; | Benutzer | & gt;:
& lt; | Assistant | & gt ;: Das Bild bietet einen Abschnitt mit dem Titel „Neueste Artikel“ mit einem Fokus auf einen Blog -Beitrag. In dem Blog -Beitrag wird erläutert: "Wie kann man Deepseek Janus Pro 7b zugreifen?" und unterstreicht seine multimodalen KI-Fähigkeiten in Bezug auf Argumentation, Text-zu-Image und Anweisungen. Das Bild enthält auch das Deepseek -Logo (ein Delphin) und ein sechseckiges Muster im Hintergrund.
Wir können sehen, dass das Modell den Text im Bild lesen und auch das Logo von Deepseek im Bild erkennen kann. Erste Eindrücke, es funktioniert gut.
Lesen Sie auch: Wie kann man Deepseek Janus Pro 7b zugreifen?
Deepseek entwickelt sich schnell als mächtige Kraft in der KI und bietet eine breite Palette von Modellen für Entwickler, Forscher und allgemeine Benutzer. Da es mit Branchenriesen wie Openai und Gemini konkurriert, werden seine kostengünstigen und leistungsstarken Modelle wahrscheinlich eine weit verbreitete Akzeptanz erhalten.
Die Anwendungen von Deekseek -Modellen sind unbegrenzt und reicht von der Codierungshilfe bis hin zu fortgeschrittenem Argument und multimodalen Funktionen. Mit nahtloser lokaler Ausführung über Ollama- und Cloud-basierte Inferenzoptionen ist Deepseek bereit, ein Game-Changer in der KI-Forschung und -entwicklung zu werden.
Wenn Sie Fragen oder Fragen haben, können Sie im Kommentarbereich gerne im Kommentarbereich gefragt!
Das obige ist der detaillierte Inhalt vonWie laufe ich Deepseek -Modelle in 5 Minuten vor Ort?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!