このサイトからのニュース 3 月 7 日、AMD は本日、ユーザーが GPT ベースの大規模言語モデル (LLM) をローカルで実行して、専用の AI チャットボットを構築できることを発表しました。
AMDによると、ユーザーはAMDの新しいXDNA NPUを搭載したRyzen 7000およびRyzen 8000シリーズAPUや、AIアクセラレーションコアを内蔵したRadeon RX 7000シリーズGPUを含むデバイス上でLLMおよびAIチャットボットをネイティブに実行できるという。
AMD は発表の中で、70 億のパラメーターを使用して Mistral を実行するなど、実行手順を詳しく説明しています。「TheBloke/OpenHermes-2.5-Mistral-7B-」を検索してダウンロードしてください。 GGUF"; 70 億のパラメーターを使用して LLAMA v2 を実行している場合は、「TheBloke/Llama-2-7B-Chat-GGUF」を検索してダウンロードします。
AMD がこれを行う最初の企業ではありません。NVIDIA も最近「チャット ウィズ」を導入しました。 RTX」は、GeForce RTX 40 および RTX 30 シリーズ GPU を搭載した人工知能チャットボットです。 TensorRT-LLM 機能セットによって高速化され、ローカライズされたデータセットに基づいて迅速に生成された AI 結果を提供します。 発表のオリジナルのアドレスは、この Web サイトに添付されていますので、興味のあるユーザーはアクセスして読むことができます。以上がAMD Ryzen AI CPU と Radeon RX 7000 GPU が、LLM と AI チャットボットの実行をネイティブでサポートするようになりましたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。