ホームページ > テクノロジー周辺機器 > AI > OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

王林
リリース: 2024-06-25 20:56:11
オリジナル
924 人が閲覧しました
今朝早く、OpenAI は中国への API サービスを終了すると突然発表し、国内開発者による GPT などの高レベルの大規模モデルへのアクセスをさらに制限しました。国内の開発者にとっては本当に難しいことです。

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

幸いなことに、オープンソースの大規模モデルのレベルがますます高くなっているため、開発者にはすでに Qwen2、DeepSeek V2、その他のモデルなどの優れた「代替品」が多数存在します。開発者に、より速く、より安く、より包括的で、よりスムーズなエクスペリエンスを提供するオープンソースの大規模モデル API を提供するために、AI インフラ分野のプロプレイヤーである SiliconFlow が現場に来て、ワンストップの大規模モデル API を立ち上げました。モデル API プラットフォーム SiliconCloud。

たった今、シリコンベースの Flow は国内開発者に前例のない贈り物を贈呈しました: Qwen2 (7B)、GLM4 (9B)、Yi1.5 (9B) およびその他のトップオープンソース大規模モデルは永久に無料です

これからは、開発者にとって「トークンの自由」は夢ではなくなり、安心してスーパーアプリケーションを開発できるようになります。

「トークンフリー」ポータル、ワンクリックで直接アクセス:

cloud.siliconflow.cn/s/free

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

工業化時代と同じように、機械化された工場は、トークンの大量生産の効率を促進しました。品。大規模モデルの時代では、生成 AI アプリケーションの繁栄により、コスト効率の高いトークン生産工場が緊急に必要とされています。

クラウド サービスを通じて大規模なモデル API にアクセスすることは、開発者にとって最良の選択となっています。ただし、多くのプラットフォームは独自の大規模モデル API のみを提供しており、他の上位の大規模モデルは含まれていません。同時に、モデルの応答速度、ユーザー エクスペリエンス、コストの点で、開発者のニーズを満たすには程遠いです。

現在、シリコンベースの液体スーパートークンファクトリー SiliconCloud により、開発者は大規模モデルのデプロイにエネルギーを費やす必要がなくなり、AI ネイティブ アプリケーション開発のしきい値とコストが大幅に削減されます。

大規模モデルのトークンファクトリー

即時更新、非常に高速な出力、手頃な価格

トークンファクトリーと呼ばれているため、ユーザーが好きなすべてのモデルをシリコンクラウド上で直接見つけることができます。

最近、大規模なモデル コミュニティが非常に活発で、オープンソース モデルが常に SOTA を更新し、順番にリストを独占しています。

Silicon Fluid は、最も強力なオープンソース コード生成モデル DeepSeek-Coder-V2、Llama3 Qwen2、GLM-4-9B-Chat、DeepSeek を超える大規模言語モデルを含む、これらの大規模モデルをできるだけ早くシリコン クラウドにアップロードしました。 V2シリーズモデル。また、Stable Diffusion 3 Medium や InstantID などの Vincent グラフ モデルもサポートしています。

DeepSeek V2 などの展開が非常に難しいモデルの場合、SiliconCloud は、これらのオープンソースの大規模モデルをサポートする公式プラットフォーム以外の唯一のクラウド サービス プラットフォームであることに言及する価値があります。

さまざまなアプリケーションシナリオで適切な大規模モデルを選択する必要性を考慮して、開発者は SiliconCloud で自由に切り替えることができます。

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

このようなオープンソースの大規模モデル集約プラットフォームは、開発者に多くの利便性を提供してきましたが、世界トップの AI インフラチームとして、Silicon Flow は大規模モデルの導入コストを 10,000 削減することに取り組んでいます。回。

この目標を達成するための中心的な課題は、大規模モデルの推論速度を大幅に向上させる方法です。 SiliconCloud はこれをどの程度達成しましたか?

SiliconCloud 上の Qwen2-72B-Instruct の応答速度を確認するには、上の画像を参照してください。

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

オープンソース化されたばかりのSD3 Mediumの画像生成時間は約1秒です。

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

これらの大規模なオープンソース モデルの応答速度は速くなり、同じ計算能力の出力はより高く、価格は自然に下がりました。

シリコン クラウド上の大規模モデル API の価格も (非常に) 手頃です。 Qwen2-72B の場合でも、公式ウェブサイトによると、コストはわずか 4.13 元 / 100 万トークンです。新規ユーザーも 2,000 万トークンを無料で楽しむことができます。

開発者のコ​​メント: 「あまりにも速いので、もう後戻りはできません。」

SiliconCloud がリリースされるとすぐに、多くの開発者が主要なソーシャル プラットフォームでその経験を共有しました。一部の「水道水」ユーザーは次のようにコメントしました:

Zhihu では、機械学習システムの専門家である @方佳瑞 が SiliconCloud の出力速度を賞賛し、「長時間使用した後、他の大手モデル メーカーの応答速度に耐えられなくなりました」ウェブ端末。」

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

Weibo ユーザーの @ Zhu William II さんは、他のいくつかのプラットフォームは Qwen2 の大規模パラメータ モデルをあえて入れていないが、SiliconCloud はそれらをすべて入れていると述べました。それは非常に高速で非常に安いので、彼は間違いなく支払います。

彼はまた、大規模モデルの最終製品はトークンであるとも述べました。将来的には、トークンの生産はシリコンベースのリクイディティなどのトークン工場、またはOpenAIやAlibaba Cloudなどの大規模なモデル企業やクラウドベンダーによって完了されるでしょう。

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

また、X ユーザーは、エクスペリエンスが非常にスムーズで、特に思いやりのある一流のアフターサービス チームを強くお勧めします。

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

WeChat公式アカウントブロガーの評価: SiliconCloudは中国の類似製品の中で最高のエクスペリエンスを持っています。

OpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できます

これらのレビューには明らかな共通点があり、それらはすべて SiliconCloud プラットフォームの速度について言及しています。なぜこんなに早く反応するのでしょうか?

答えは簡単です: Silicon Flow チームはパフォーマンス最適化作業を数多く行ってきました。

シリコンベースの Flow の前身である OneFlow チームは、2016 年の時点で大規模モデル インフラストラクチャに専念し、一般的な深層学習フレームワークを開発した世界で唯一の起業家チームでした。ビジネスを再スタートさせた彼らは、AI インフラストラクチャと高速化の最適化における豊富な経験に基づいて、高性能の大規模モデル推論エンジンの開発を主導し、シナリオによっては大規模モデルのスループットを最大 10 倍高速化できます。エンジンもシリコンクラウドプラットフォームに統合されています。

言い換えれば、開発者がより高速な出力と手頃な価格で大規模なモデル サービスを使用できるようにすることが、シリコンベースのモバイル チームの専門分野です。

トークンが無料になった後も、驚異的なアプリケーションはまだ遠いのでしょうか?

これまで、国内の開発者がAIアプリケーションを開発することを妨げる主な要因は、高レベルの大規模モデルにアクセスする不便さでした。たとえ高品質のアプリケーションを作ったとしても、それを大規模に宣伝することは勇気がありませんでした。あまりにも早くお金を使い果たしてしまったので、彼らにはそれを買う余裕がありませんでした。

国内の大規模なオープンソース モデルの継続的な反復により、Qwen2 や DeepSeek V2 に代表されるモデルはスーパー アプリケーションをサポートするのに十分です。さらに重要なのは、トークン ファクトリー SiliconCloud の出現により、スーパー 個人の悩み が解決できるようになりました。アプリケーションについて心配する必要はありません 研究開発や大規模なプロモーションによって発生する電力コストを計算する代わりに、製品アイデアを実現し、ユーザーが必要とする生成 AI アプリケーションを作成することだけに集中する必要があります。

超個人開発者やプロダクトマネージャーにとって、今が最高の「金掘り」の瞬間であると言えます。そんなあなたのために、便利な金掘りツールである SiliconCloud が用意されています。

もう 1 つのリマインダー: Qwen2 (7B)、GLM4 (9B) およびその他のトップのオープンソース大規模モデルは永久に無料です。

トークンファクトリー SiliconCloud へようこそ:

cloud.siliconflow.cn/s/free

以上がOpenAIはサービスを停止し、国内の大型モデルは無料で利用可能!開発者トークンは自由に実装できますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:jiqizhixin.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート