Heim > Technologie-Peripheriegeräte > KI > Wie laufe ich Deepseek -Modelle in 5 Minuten vor Ort?

Wie laufe ich Deepseek -Modelle in 5 Minuten vor Ort?

Christopher Nolan
Freigeben: 2025-03-07 09:59:09
Original
642 Leute haben es durchsucht

Deepseek hat die KI -Community im Sturm im Sturm erobert, wobei bis heute 68 Modelle auf dem Umarmungsgesicht erhältlich sind. Auf diese Familie von Open-Source-Modellen kann durch umarmendes Gesicht oder Ollama zugegriffen werden, während Deepseek-R1 und Deepseek-V3 direkt zur Inferenz über Deepseek Chat verwendet werden kann. In diesem Blog werden wir die Modellaufstellung von Deepseek untersuchen und Sie durch das Ausführen dieser Modelle mithilfe von Google Colab und Ollama führen.

Inhaltsverzeichnis

  • Überblick über Deepseek -Modelle
  • Deepseek R1 auf Ollama
    • Schritt 1: Installieren Sie OLLAMA
    • Schritt 2: Ziehen Sie das Deepseek R1 -Modell
  • Lokal aus. DeepSeek-Janus-Pro-1B on Google Colab
    • Step 1: Clone the DeepSeek-Janus Repository
    • Step 2: Install Dependencies
    • Step 3: Load the Model and Move It to GPU
    • Step 4: Pass an Image for Processing
  • Conclusion 
Überblick über Deepseek -Modelle

Deepseek bietet eine Vielzahl von Modellen, die jeweils für verschiedene Aufgaben optimiert sind. Nachfolgend finden Sie eine Aufschlüsselung, von der das Modell am besten zu Ihren Bedürfnissen passt:

  • Für Entwickler und Programmierer: Die Modelle Deepseek-Coder und Deekseek-Coder-V2 sind für Codierungsaufgaben wie das Schreiben und Debugging-Code ausgelegt.
  • Für allgemeine Benutzer: Das Deepseek-V3 -Modell ist eine vielseitige Option, die eine Vielzahl von Abfragen abwickeln kann, von lässigen Gesprächen bis hin zu komplexen Inhaltsgenerierung.
  • Für Forscher und fortgeschrittene Benutzer: Das Deepseek-R1 -Modell spezialisiert sich auf fortgeschrittene Argumentation und logische Analyse, wodurch es ideal für Problemlösungen und Forschungsanwendungen ist.
  • Für Visionsaufgaben: Die Modelle Deepseek-Janus und Deepseek-VL sind auf multimodale Aufgaben zugeschnitten, einschließlich Bildgenerierung und -verarbeitung.

Lesen Sie auch: Erstellen der AI-Anwendung mit Deepseek-V3

Deepseek R1 auf Ollama

rennen

Schritt 1: Installieren Sie Ollama

Um Deepseek -Modelle auf Ihrem lokalen Computer auszuführen, müssen Sie Ollama installieren:

  • Download olama: Klicken Sie hier, um
  • herunterzuladen
  • Für Linux -Benutzer: Führen Sie den folgenden Befehl in Ihrem Terminal aus: bashcopyedit
curl -fsSL https://ollama.com/install.sh | sh
Nach dem Login kopieren
Nach dem Login kopieren

Schritt 2: Ziehen Sie das Deepseek R1 -Modell

an

Sobald Ollama installiert ist, öffnen Sie Ihre Befehlszeilenschnittstelle (CLI) und ziehen Sie das Modell:

ollama pull deepseek-r1:1.5b
Nach dem Login kopieren
Nach dem Login kopieren

Sie können hier andere Deepseek -Modelle untersuchen, die hier auf Ollama verfügbar sind: Ollama -Modellsuche.

Dieser Schritt kann einige Zeit dauern. Warten Sie also, bis der Download abgeschlossen ist.

ollama pull deepseek-r1:1.5b

pulling manifest 
pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB                         
pulling 369ca498f347... 100% ▕████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B                         
pulling a85fe2a2e58e... 100% ▕████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
Nach dem Login kopieren
Nach dem Login kopieren

Schritt 3: Führen Sie das Modell lokal aus

Sobald das Modell heruntergeladen wurde, können Sie es mit dem Befehl ausführen:

curl -fsSL https://ollama.com/install.sh | sh
Nach dem Login kopieren
Nach dem Login kopieren

Wie laufe ich Deepseek -Modelle in 5 Minuten vor Ort?

Das Modell ist jetzt zur Verwendung auf dem lokalen Computer verfügbar und beantwortet meine Fragen ohne Schluckauf.

Deepseek-Janus-pro-1b auf Google Colab

laufen

In diesem Abschnitt werden wir Deepseek-Janus-Pro-1b mit Google Colab ausprobieren. Stellen Sie vor dem Start die Laufzeit auf die T4 -GPU ein, um eine optimale Leistung zu erhalten.

Schritt 1: Klonen Sie das Deepseek-Janus-Repository

Führen Sie den folgenden Befehl in einem Colab -Notizbuch aus:
ollama pull deepseek-r1:1.5b
Nach dem Login kopieren
Nach dem Login kopieren

? Erforschen Sie mehr Deepseek -Modelle auf GitHub: Deepseek AI Github Repository

Schritt 2: Abhängigkeiten

installieren

Navigieren Sie zum geklonten Verzeichnis und installieren Sie die erforderlichen Pakete:
ollama pull deepseek-r1:1.5b

pulling manifest 
pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB                         
pulling 369ca498f347... 100% ▕████████████████▏  387 B                         
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB                         
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B                         
pulling a85fe2a2e58e... 100% ▕████████████████▏  487 B                         
verifying sha256 digest 
writing manifest 
success 
Nach dem Login kopieren
Nach dem Login kopieren

Schritt 3: Laden Sie das Modell und bewegen Sie es in GPU

Jetzt importieren wir die erforderlichen Bibliotheken und laden das Modell in cuda (gpu)

:
ollama run deepseek-r1:1.5b
Nach dem Login kopieren

Schritt 4: Übergeben Sie ein Bild zur Verarbeitung

Übergeben wir jetzt ein Bild

an das Modell und generieren Sie eine Antwort.

? Eingabebild

Wie laufe ich Deepseek -Modelle in 5 Minuten vor Ort?

Initialisierung der Eingabeaufforderung und der Systemrolle

!git clone https://github.com/deepseek-ai/Janus.git
Nach dem Login kopieren

Verarbeitung der Eingabe

%cd Janus
!pip install -e .
!pip install flash-attn
Nach dem Login kopieren

Ausgabe:


& lt; | Benutzer | & gt;:

Was ist im Bild?

& lt; | Assistant | & gt ;: Das Bild bietet einen Abschnitt mit dem Titel „Neueste Artikel“ mit einem Fokus auf einen Blog -Beitrag. In dem Blog -Beitrag wird erläutert: "Wie kann man Deepseek Janus Pro 7b zugreifen?" und unterstreicht seine multimodalen KI-Fähigkeiten in Bezug auf Argumentation, Text-zu-Image und Anweisungen. Das Bild enthält auch das Deepseek -Logo (ein Delphin) und ein sechseckiges Muster im Hintergrund.

Wir können sehen, dass das Modell den Text im Bild lesen und auch das Logo von Deepseek im Bild erkennen kann. Erste Eindrücke, es funktioniert gut.

Lesen Sie auch: Wie kann man Deepseek Janus Pro 7b zugreifen?

Schlussfolgerung

Deepseek entwickelt sich schnell als mächtige Kraft in der KI und bietet eine breite Palette von Modellen für Entwickler, Forscher und allgemeine Benutzer. Da es mit Branchenriesen wie Openai und Gemini konkurriert, werden seine kostengünstigen und leistungsstarken Modelle wahrscheinlich eine weit verbreitete Akzeptanz erhalten.

Die Anwendungen von Deekseek -Modellen sind unbegrenzt und reicht von der Codierungshilfe bis hin zu fortgeschrittenem Argument und multimodalen Funktionen. Mit nahtloser lokaler Ausführung über Ollama- und Cloud-basierte Inferenzoptionen ist Deepseek bereit, ein Game-Changer in der KI-Forschung und -entwicklung zu werden.

Wenn Sie Fragen oder Fragen haben, können Sie im Kommentarbereich gerne im Kommentarbereich gefragt!

Das obige ist der detaillierte Inhalt vonWie laufe ich Deepseek -Modelle in 5 Minuten vor Ort?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage