Heim Backend-Entwicklung Golang Verwenden Sie Mistral AI, um generative KI-Anwendungen mit Go zu erstellen

Verwenden Sie Mistral AI, um generative KI-Anwendungen mit Go zu erstellen

Aug 09, 2024 pm 01:13 PM

Erfahren Sie, wie Sie Mistral AI auf Amazon Bedrock mit AWS SDK for Go verwenden

Mistral AI bietet Modelle mit unterschiedlichen Eigenschaften in Bezug auf Leistung, Kosten und mehr:

  • Mistral 7B – Das erste von Mistral AI veröffentlichte dichte Modell, perfekt zum Experimentieren, Anpassen und schnellen Iterieren.
  • Mixtral 8x7B – Eine spärliche Mischung aus Expertenmodell.
  • Mistral Large – ideal für komplexe Aufgaben, die große Denkfähigkeiten erfordern oder hochspezialisiert sind (Generierung synthetischer Texte, Codegenerierung, RAG oder Agenten).

Sehen wir uns an, wie Sie diese Mistral-KI-Modelle auf Amazon Bedrock mit Go verwenden und dabei auch die Prompt-Tokens besser verstehen.

Erste Schritte mit Mistral AI

Beginnen wir mit einem einfachen Beispiel mit Mistral 7B.

Lesen Sie den Abschnitt **Bevor Sie beginnen* in diesem Blogbeitrag, um die Voraussetzungen für die Ausführung der Beispiele zu erfüllen. Dazu gehört die Installation von Go, die Konfiguration des Amazon Bedrock-Zugriffs und die Bereitstellung der erforderlichen IAM-Berechtigungen.*

Den vollständigen Code finden Sie hier

Um das Beispiel auszuführen:

git clone https://github.com/abhirockzz/mistral-bedrock-go
cd mistral-bedrock-go

go run basic/main.go
Nach dem Login kopieren

Die Antwort kann in Ihrem Fall etwas anders ausfallen (oder auch nicht):

request payload:
 {"prompt":"\u003cs\u003e[INST] Hello, what's your name? [/INST]"}
response payload:
 {"outputs":[{"text":" Hello! I don't have a name. I'm just an artificial intelligence designed to help answer questions and provide information. How can I assist you today?","stop_reason":"stop"}]}
response string:
  Hello! I don't have a name. I'm just an artificial intelligence designed to help answer questions and provide information. How can I assist you today?
Nach dem Login kopieren

Den vollständigen Code finden Sie hier.

Wir beginnen mit der Erstellung der JSON-Nutzlast – sie wird als Struktur (MistralRequest) modelliert. Beachten Sie auch die Modell-ID mistral.mistral-7b-instruct-v0:2

const modelID7BInstruct = "mistral.mistral-7b-instruct-v0:2"
const promptFormat = "<s>[INST] %s [/INST]"

func main() {
    msg := "Hello, what's your name?"

    payload := MistralRequest{
        Prompt: fmt.Sprintf(promptFormat, msg),
    }
//...
Nach dem Login kopieren

Mistral hat ein spezielles Eingabeaufforderungsformat, wobei:

  • bezieht sich auf den Anfang der Zeichenfolge Token
  • Text für die Benutzerrolle befindet sich in den [INST]...[/INST]-Tokens
  • Text außerhalb ist die Assistentenrolle

In den Ausgabeprotokollen oben sehen Sie, wie die Token wird interpretiert

Hier ist die MistralRequest-Struktur mit den erforderlichen Attributen:

type MistralRequest struct {
    Prompt        string   `json:"prompt"`
    MaxTokens     int      `json:"max_tokens,omitempty"`
    Temperature   float64  `json:"temperature,omitempty"`
    TopP          float64  `json:"top_p,omitempty"`
    TopK          int      `json:"top_k,omitempty"`
    StopSequences []string `json:"stop,omitempty"`
}
Nach dem Login kopieren

InvokeModel wird zum Aufrufen des Modells verwendet. Die JSON-Antwort wird in eine Struktur (MistralResponse) konvertiert und die Textantwort daraus extrahiert.

    output, err := brc.InvokeModel(context.Background(), &bedrockruntime.InvokeModelInput{
        Body:        payloadBytes,
        ModelId:     aws.String(modelID7BInstruct),
        ContentType: aws.String("application/json"),
    })

    var resp MistralResponse

    err = json.Unmarshal(output.Body, &resp)

    fmt.Println("response string:\n", resp.Outputs[0].Text)
Nach dem Login kopieren

Chat-Beispiel

Weiter zu einer einfachen Gesprächsinteraktion. Mistral bezeichnet dies als Multi-Turn-Eingabeaufforderung und wir werden das hinzufügen. Das ist das Ende der Zeichenfolge-Token.

Um das Beispiel auszuführen:

go run chat/main.go
Nach dem Login kopieren

Hier ist meine Interaktion:

Use Mistral AI to build generative AI applications with Go

Den vollständigen Code finden Sie hier

Der Code selbst ist für die Zwecke dieses Beispiels zu stark vereinfacht. Ein wichtiger Teil ist jedoch die Art und Weise, wie die Token zum Formatieren der Eingabeaufforderung verwendet werden. Beachten Sie, dass wir in diesem Beispiel Mixtral 8X7B (mistral.mixtral-8x7b-instruct-v0:1) verwenden.

const userMessageFormat = "[INST] %s [/INST]"
const modelID8X7BInstruct = "mistral.mixtral-8x7b-instruct-v0:1"
const bos = "<s>" 
const eos = "</s>"

var verbose *bool

func main() {
    reader := bufio.NewReader(os.Stdin)

    first := true
    var msg string

    for {
        fmt.Print("\nEnter your message: ")

        input, _ := reader.ReadString('\n')
        input = strings.TrimSpace(input)

        if first {
            msg = bos + fmt.Sprintf(userMessageFormat, input)
        } else {
            msg = msg + fmt.Sprintf(userMessageFormat, input)
        }

        payload := MistralRequest{
            Prompt: msg,
        }

        response, err := send(payload)

        fmt.Println("[Assistant]:", response)

        msg = msg + response + eos + " "

        first = false
    }
}
Nach dem Login kopieren

Das Token Anfang der Zeichenfolge (bos) wird nur einmal zu Beginn der Konversation benötigt, während eos (Ende der Zeichenfolge) das Ende markiert eines einzelnen Gesprächsaustauschs (Benutzer und Assistent).

Chatten Sie mit Streaming

Wenn Sie meine vorherigen Blogs gelesen haben, füge ich immer gerne ein „Streaming“-Beispiel hinzu, weil:

  1. Es bietet eine bessere Erfahrung aus Sicht der Kundenanwendung
  2. Es ist ein häufiger Fehler, die InvokeModelWithResponseStream-Funktion (das asynchrone Gegenstück zu InvokeModel) zu übersehen
  3. Die partielle Modellnutzlastantwort kann interessant (und manchmal knifflig) sein

Den vollständigen Code finden Sie hier

Lass uns das ausprobieren. In diesem Beispiel wird Mistral Large verwendet – ändern Sie einfach die Modell-ID in mistral.mistral-large-2402-v1:0. Um das Beispiel auszuführen:

go run chat-streaming/main.go
Nach dem Login kopieren

Beachten Sie die Verwendung von InvokeModelWithResponseStream (anstelle von Invoke):

    output, err := brc.InvokeModelWithResponseStream(context.Background(), &bedrockruntime.InvokeModelWithResponseStreamInput{
        Body:        payloadBytes,
        ModelId:     aws.String(modelID7BInstruct),
        ContentType: aws.String("application/json"),
    })
    //...
Nach dem Login kopieren

Um die Ausgabe zu verarbeiten, verwenden wir:

    //...
    resp, err := processStreamingOutput(output, func(ctx context.Context, part []byte) error {
        fmt.Print(string(part))
        return nil
    })
Nach dem Login kopieren

Hier sind ein paar Teile der Funktion „processStreamingOutput“ – Sie können den Code hier überprüfen. Es ist wichtig zu verstehen, wie die Teilantworten gesammelt werden, um die endgültige Ausgabe (MistralResponse) zu erzeugen.

func processStreamingOutput(output *bedrockruntime.InvokeModelWithResponseStreamOutput, handler StreamingOutputHandler) (MistralResponse, error) {

    var combinedResult string

    resp := MistralResponse{}
    op := Outputs{}

    for event := range output.GetStream().Events() {
        switch v := event.(type) {
        case *types.ResponseStreamMemberChunk:

            var pr MistralResponse

            err := json.NewDecoder(bytes.NewReader(v.Value.Bytes)).Decode(&pr)
            if err != nil {
                return resp, err
            }

            handler(context.Background(), []byte(pr.Outputs[0].Text))

            combinedResult += pr.Outputs[0].Text
            op.StopReason = pr.Outputs[0].StopReason
    //...
    }

    op.Text = combinedResult
    resp.Outputs = []Outputs{op}

    return resp, nil
}
Nach dem Login kopieren

Abschluss

Denken Sie daran: Das Erstellen von KI/ML-Anwendungen mit großen Sprachmodellen (wie Mistral, Meta Llama, Claude usw.) bedeutet nicht, dass Sie Python verwenden müssen. Verwaltete Plattformen wie Amazon Bedrock bieten Zugriff auf diese leistungsstarken Modelle mithilfe flexibler APIs in einer Vielzahl von Programmiersprachen, einschließlich Go! Dank der AWS SDK-Unterstützung können Sie die Programmiersprache Ihrer Wahl für die Integration in Amazon Bedrock verwenden und generative KI-Lösungen erstellen.

Weitere Informationen finden Sie in der offiziellen Mistral-Dokumentation sowie im Amazon Bedrock-Benutzerhandbuch. Viel Spaß beim Bauen!

Das obige ist der detaillierte Inhalt vonVerwenden Sie Mistral AI, um generative KI-Anwendungen mit Go zu erstellen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1672
14
PHP-Tutorial
1277
29
C#-Tutorial
1257
24
Golang gegen Python: Leistung und Skalierbarkeit Golang gegen Python: Leistung und Skalierbarkeit Apr 19, 2025 am 12:18 AM

Golang ist in Bezug auf Leistung und Skalierbarkeit besser als Python. 1) Golangs Kompilierungseigenschaften und effizientes Parallelitätsmodell machen es in hohen Parallelitätsszenarien gut ab. 2) Python wird als interpretierte Sprache langsam ausgeführt, kann aber die Leistung durch Tools wie Cython optimieren.

Golang und C: Parallelität gegen Rohgeschwindigkeit Golang und C: Parallelität gegen Rohgeschwindigkeit Apr 21, 2025 am 12:16 AM

Golang ist in Gleichzeitigkeit besser als C, während C bei Rohgeschwindigkeit besser als Golang ist. 1) Golang erreicht durch Goroutine und Kanal eine effiziente Parallelität, die zum Umgang mit einer großen Anzahl von gleichzeitigen Aufgaben geeignet ist. 2) C über Compiler -Optimierung und Standardbibliothek bietet es eine hohe Leistung in der Nähe der Hardware, die für Anwendungen geeignet ist, die eine extreme Optimierung erfordern.

Erste Schritte mit Go: Ein Anfängerführer Erste Schritte mit Go: Ein Anfängerführer Apr 26, 2025 am 12:21 AM

GoisidealforBeginersandSuitableforCloudandNetWorkServicesDuetoitsSimplicity, Effizienz und Konsumfeaturen.1) InstallgoFromTheofficialwebSiteAnDverifyWith'goversion'.2) CreateAneDrunyourFirstProgramwith'gorunhello.go.go.go.

Golang gegen C: Leistung und Geschwindigkeitsvergleich Golang gegen C: Leistung und Geschwindigkeitsvergleich Apr 21, 2025 am 12:13 AM

Golang ist für schnelle Entwicklung und gleichzeitige Szenarien geeignet, und C ist für Szenarien geeignet, in denen extreme Leistung und Kontrolle auf niedriger Ebene erforderlich sind. 1) Golang verbessert die Leistung durch Müllsammlung und Parallelitätsmechanismen und eignet sich für die Entwicklung von Webdiensten mit hoher Konsequenz. 2) C erreicht die endgültige Leistung durch das manuelle Speicherverwaltung und die Compiler -Optimierung und eignet sich für eingebettete Systementwicklung.

Golang gegen Python: Schlüsselunterschiede und Ähnlichkeiten Golang gegen Python: Schlüsselunterschiede und Ähnlichkeiten Apr 17, 2025 am 12:15 AM

Golang und Python haben jeweils ihre eigenen Vorteile: Golang ist für hohe Leistung und gleichzeitige Programmierung geeignet, während Python für Datenwissenschaft und Webentwicklung geeignet ist. Golang ist bekannt für sein Parallelitätsmodell und seine effiziente Leistung, während Python für sein Ökosystem für die kurze Syntax und sein reiches Bibliothek bekannt ist.

Golang und C: Die Kompromisse bei der Leistung Golang und C: Die Kompromisse bei der Leistung Apr 17, 2025 am 12:18 AM

Die Leistungsunterschiede zwischen Golang und C spiegeln sich hauptsächlich in der Speicherverwaltung, der Kompilierungsoptimierung und der Laufzeiteffizienz wider. 1) Golangs Müllsammlung Mechanismus ist praktisch, kann jedoch die Leistung beeinflussen.

Das Performance -Rennen: Golang gegen C. Das Performance -Rennen: Golang gegen C. Apr 16, 2025 am 12:07 AM

Golang und C haben jeweils ihre eigenen Vorteile bei Leistungswettbewerben: 1) Golang ist für eine hohe Parallelität und schnelle Entwicklung geeignet, und 2) C bietet eine höhere Leistung und eine feinkörnige Kontrolle. Die Auswahl sollte auf Projektanforderungen und Teamtechnologie -Stack basieren.

Golang gegen Python: Die Vor- und Nachteile Golang gegen Python: Die Vor- und Nachteile Apr 21, 2025 am 12:17 AM

GolangissidealforbuildingsCalablesSystemduetoitseffizienz und Konsumverkehr, whilepythonexcelsinquickScriptingandDataanalyseduetoitssimplication und VacevastEcosystem.golangsDesineScouragesCouragescournations, tadelcodedeanDitsGoroutaTinoutgoroutaTinoutgoroutaTinoutsGoroutinesGoroutinesGoroutsGoroutins, t

See all articles