Laut Nachrichten dieser Website vom 7. März gab AMD heute bekannt, dass Benutzer GPT-basierte Large Language Models (LLM) lokal ausführen können, um exklusive KI-Chatbots zu erstellen.
AMD sagt, dass Benutzer LLM- und KI-Chatbots nativ auf Geräten ausführen können, darunter APUs der Serien Ryzen 7000 und Ryzen 8000, die von AMDs neuer XDNA NPU angetrieben werden, sowie GPU-Geräten der Radeon RX 7000-Serie mit integrierten KI-Beschleunigungskernen.
AMD hat die laufenden Schritte in der Ankündigung detailliert beschrieben, z. B. die Ausführung von Mistral mit 7 Milliarden Parametern, die Suche und den Download von „TheBloke / OpenHermes-2.5-Mistral-7B-GGUF“; wenn LLAMA v2 mit 7 Milliarden Parametern ausgeführt wird , suchen und laden Sie „TheBloke/Llama-2-7B-Chat-GGUF“ herunter.
AMD ist nicht das erste Unternehmen, das dies tut. NVIDIA hat kürzlich auch „Chat with RTX“ gestartet, der von GPUs der GeForce RTX 40- und RTX 30-Serie unterstützt wird. Chatbot mit künstlicher Intelligenz. Es wird mit dem TensorRT-LLM-Feature-Set beschleunigt, um schnell generierte KI-Ergebnisse basierend auf lokalisierten Datensätzen zu liefern.
Die Originaladresse der Ankündigung ist dieser Website beigefügt.
Das obige ist der detaillierte Inhalt vonAMD Ryzen AI-CPUs und Radeon RX 7000-GPUs unterstützen jetzt die native Ausführung von LLM- und AI-Chatbots. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!