Heim > Technologie-Peripheriegeräte > KI > OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

王林
Freigeben: 2024-06-25 20:56:11
Original
924 Leute haben es durchsucht
Heute früh kündigte OpenAI plötzlich an, dass es seine API-Dienste für China einstellen werde, wodurch der Zugang inländischer Entwickler zu hochentwickelten großen Modellen wie GPT weiter eingeschränkt werde. Für inländische Entwickler ist es wirklich schwierig.

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Da das Niveau der Open-Source-Großmodelle immer höher wird, haben Entwickler glücklicherweise bereits viele gute „Ersatzmodelle“ wie Qwen2, DeepSeek V2 und andere Modelle. Um Entwicklern Open-Source-APIs für große Modelle bereitzustellen, die schneller, kostengünstiger und umfassender sind und ein reibungsloseres Erlebnis bieten, ist SiliconFlow, ein professioneller Akteur im Bereich KI-Infrastruktur, auf den Plan getreten und hat das One-Stop-Großmodell auf den Markt gebracht Modell-API-Plattform SiliconCloud.

Gerade jetzt hat das auf Silizium basierende Flow den inländischen Entwicklern ein beispielloses Geschenk gemacht: Qwen2 (7B), GLM4 (9B), Yi1.5 (9B) und andere Top-Open-Source-Großmodelle sind dauerhaft kostenlos.

Von nun an ist „Token-Freiheit“ für Entwickler kein Traum mehr und sie können ohne Sorgen tolle Anwendungen entwickeln.

Portal „Token Free“, Direktzugriff mit einem Klick:

cloud.siliconflow.cn/s/free

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Genau wie im Zeitalter der Industrialisierung förderten mechanisierte Fabriken die Effizienz der Massenproduktion von Waren. Im Zeitalter großer Modelle erfordert der Erfolg generativer KI-Anwendungen dringend kostengünstige Token-Produktionsfabriken.

Der Zugriff auf große Modell-APIs über Cloud-Dienste ist für Entwickler zur besten Wahl geworden. Viele Plattformen stellen jedoch nur ihre eigenen APIs für große Modelle bereit und umfassen keine anderen Top-Großmodelle. Gleichzeitig sind sie in Bezug auf die Reaktionsgeschwindigkeit des Modells, die Benutzererfahrung und die Kosten weit davon entfernt, die Anforderungen der Entwickler zu erfüllen.

Die siliziumbasierte Super-Token-Fabrik SiliconCloud ermöglicht es Entwicklern nun, keine Energie mehr für die Bereitstellung großer Modelle aufzuwenden, und reduziert den Schwellenwert und die Kosten der KI-nativen Anwendungsentwicklung massiv.

Große Modell-Token-Fabrik

Sofortige Aktualisierung, extrem schnelle Ausgabe, erschwinglicher Preis

Da es Token Factory heißt, sind alle Modelle, die Benutzern gefallen, direkt in Silicon Cloud zu finden.

In letzter Zeit ist die große Modell-Community recht lebhaft, und Open-Source-Modelle aktualisieren SOTA ständig und dominieren abwechselnd die Liste.

Silicon Fluid hat diese großen Modelle schnellstmöglich in die Silicon Cloud hochgeladen, darunter das leistungsstärkste Open-Source-Code-Generierungsmodell DeepSeek-Coder-V2, große Sprachmodelle, die Llama3 Qwen2, GLM-4-9B-Chat und DeepSeek übertreffen Modelle der V2-Serie. Es unterstützt auch Vincent-Grafikmodelle wie Stable Diffusion 3 Medium und InstantID.

Es ist erwähnenswert, dass SiliconCloud für Modelle, die extrem schwierig bereitzustellen sind, wie DeepSeek V2, neben der offiziellen Plattform die einzige Cloud-Service-Plattform ist, die diese großen Open-Source-Modelle unterstützt.

Angesichts der Notwendigkeit, in verschiedenen Anwendungsszenarien ein geeignetes großes Modell auszuwählen, können Entwickler in SiliconCloud frei wechseln.

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Eine solche Open-Source-Plattform zur Aggregation großer Modelle hat Entwicklern viele Annehmlichkeiten geboten, reicht aber bei weitem nicht aus. Als weltweit führendes AI-Infra-Team setzt sich Silicon Flow dafür ein, die Kosten für die Bereitstellung großer Modelle um 10.000 zu senken mal.

Um dieses Ziel zu erreichen, besteht die zentrale Herausforderung darin, die Inferenzgeschwindigkeit großer Modelle deutlich zu verbessern. Inwieweit hat SiliconCloud dies erreicht?

Besuchen Sie das Bild oben, um die Reaktionsgeschwindigkeit von Qwen2-72B-Instruct auf SiliconCloud zu erleben.

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Die Bildgenerierungszeit von SD3 Medium, das gerade als Open Source verfügbar ist, beträgt etwa 1 Sekunde.

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Die Reaktionsgeschwindigkeit dieser großen Open-Source-Modelle ist schneller geworden, die Leistung bei gleicher Rechenleistung ist höher und der Preis ist natürlich gesunken.

Der Preis der großen Modell-API auf Silicon Cloud ist ebenfalls (sehr) günstiger. Selbst für Qwen2-72B zeigt die offizielle Website, dass es nur 4,13 Yuan / 1 Mio. Token kostet. Neue Benutzer können außerdem 20 Millionen Token kostenlos genießen.

Entwicklerkommentare: „Es ist so schnell, dass man nie mehr zurückkehren kann“

Sobald SiliconCloud veröffentlicht wurde, teilten viele Entwickler ihre Erfahrungen auf wichtigen sozialen Plattformen. Einige „Leitungswasser“-Benutzer kommentierten Folgendes:

Auf Zhihu lobte der Experte für maschinelle Lernsysteme @方佳瑞 die Ausgabegeschwindigkeit von SiliconCloud: „Nachdem ich es lange verwendet habe, kann ich die Reaktionsgeschwindigkeit anderer großer Modellhersteller nicht ertragen.“ die Webseite.“

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Weibo-Benutzer @ Zhu William II sagte, dass mehrere andere Plattformen es nicht wagen, Qwen2-Modelle mit großen Parametern bereitzustellen, aber SiliconCloud hat sie alle bereitgestellt Es ist sehr schnell und sehr billig, also wird er definitiv zahlen.

Er erwähnte auch, dass Das Endprodukt des großen Modells Token ist. In Zukunft wird die Token-Produktion von Token-Fabriken wie Silicon-based Liquidity oder großen Modellunternehmen oder Cloud-Anbietern wie OpenAI und Alibaba Cloud durchgeführt.

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Außerdem empfehlen X-Benutzer SiliconCloud wärmstens. Die Erfahrung ist so reibungslos, insbesondere das rücksichtsvolle und erstklassige Kundendienstteam.

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Bewertung des offiziellen WeChat-Account-Bloggers: SiliconCloud hat die beste Erfahrung unter ähnlichen Produkten in China.

OpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert

Diese Bewertungen haben eine offensichtliche Gemeinsamkeit: Sie alle erwähnten die Geschwindigkeit der SiliconCloud-Plattform. Warum reagiert es so schnell?

Die Antwort ist einfach: Das Silicon Flow-Team hat viel an der Leistungsoptimierung gearbeitet.

Bereits im Jahr 2016 widmete sich das OneFlow-Team, der Vorgänger von Flow auf Siliziumbasis, der großen Modellinfrastruktur und war das einzige Unternehmerteam der Welt, das ein allgemeines Deep-Learning-Framework entwickelte. Sie gründeten erneut ein Unternehmen und übernahmen die Führung bei der Entwicklung einer leistungsstarken Inferenz-Engine für große Modelle. In einigen Szenarien kann der Durchsatz großer Modelle dadurch um das Zehnfache beschleunigt werden Die Engine wurde auch in die Silicon Cloud-Plattform integriert.

Mit anderen Worten: Entwicklern die Nutzung großer Modelldienste mit schnellerer Ausgabe und erschwinglichen Preisen zu ermöglichen, ist die Spezialität des Teams für siliziumbasierte Mobilgeräte.

Nachdem Token kostenlos ist, sind phänomenale Anwendungen noch in weiter Ferne? 🔜 Sie verbrennen zu schnell Geld und können es sich nicht leisten.

Mit der kontinuierlichen Iteration großer inländischer Open-Source-Modelle reichen die von Qwen2 und DeepSeek V2 repräsentierten Modelle aus, um Superanwendungen zu unterstützen. Noch wichtiger ist, dass das Aufkommen der „Token-Fabrik SiliconCloud“ die Sorgen von Super-Individuen lösen kann, die sie nicht mehr haben Sorgen Sie sich um Anwendungen Anstelle der Kosten für Rechenleistung, die durch Forschung und Entwicklung und groß angelegte Werbung verursacht werden, müssen Sie sich nur auf die Umsetzung von Produktideen und die Erstellung generativer KI-Anwendungen konzentrieren, die Benutzer benötigen.

Man kann sagen, dass jetzt der beste „Goldgräber“-Moment für superindividuelle Entwickler und Produktmanager ist, und SiliconCloud, ein nützliches Goldgräber-Tool, wurde für Sie vorbereitet.

Noch eine Erinnerung: Qwen2 (7B), GLM4 (9B) und andere Top-Open-Source-Großmodelle sind dauerhaft kostenlos.

Willkommen bei Token Factory SiliconCloud:

cloud.siliconflow.cn/s/free

Das obige ist der detaillierte Inhalt vonOpenAI stellt den Dienst ein und große inländische Modelle sind kostenlos verfügbar! Der Entwickler-Token ist frei implementiert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:jiqizhixin.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage