GPUs werden häufig zum Mining von Kryptowährungen wie Bitcoin verwendet, und Mining ist ein ressourcenintensiver Prozess, der leistungsstarke Rechenleistung erfordert.
Der Kryptowährungs-Hype führte einst zu einem Mangel an GPUs auf dem Markt. Als die Preise in die Höhe schossen, wandten sich Unternehmen und Privatpersonen den GPUs von Nvidia für die Spielebranche zu und verwandelten sie in dedizierte GPUs für Krypto-Mining-Geräte.
Als jedoch der Kryptowährungswahn nachließ, wurden viele Krypto-Mining-Geräte stillgelegt oder sogar aufgegeben. Dadurch wurde dem Gründer von Monster API, Gaurav Vij, klar, dass sie diese Geräte umfunktionieren und anpassen könnten, um sie an den neuesten rechenintensiven Entwicklungstrend anzupassen, der darin besteht, grundlegende KI-Modelle zu trainieren und auszuführen.
Während diese GPUs nicht über die Leistung dedizierter KI-Appliances verfügen, die von Unternehmen wie AWS oder Google Cloud bereitgestellt werden, sind sie laut Gaurav Vij in der Lage, optimierte Open-Source-Modelle zu trainieren, allerdings auf Kosten der Hyperscale-Computing-Ausrüstung, die von Cloud-Computing-Anbietern verwendet wird . ein kleiner Teil davon.
Monster API-Mitbegründer Saurabh Vij sagte: „Der Bereich des maschinellen Lernens hat tatsächlich mit der Rechenleistung zu kämpfen, weil die Nachfrage das Angebot übersteigt. Heutzutage geben viele Entwickler für maschinelles Lernen viel Geld aus und verlassen sich auf AWS, Google Cloud und Cloud-Dienstleister wie.“ B. Microsoft Azure, können Ressourcen erhalten.“ finden Sie in . Saurabh Vij sagte: „Krypto-Mining-Plattformen nutzen GPUs, und auch Gaming-Systeme nutzen GPUs, und GPUs werden jedes Jahr leistungsfähiger.“
Saurabh Vij betonte, dass verteilte Computersysteme die Kosten für das Training grundlegender KI-Modelle so weit senken, dass sie in Zukunft von Open-Source- und Non-Profit-Organisationen trainiert werden können, nicht nur von großen Technologieunternehmen mit umfangreichen finanziellen Ressourcen. Im Vergleich zum Aufbau eines grundlegenden KI-Modells, das 1 Million US-Dollar kostet, kostet ein dezentrales Netzwerk wie unseres nur 100.000 US-Dollar. „
Geek.com hat erfahren, dass die Monster-API jetzt auch „codefreie“ Tools zur Feinabstimmung von Modellen bereitstellt und Benutzern ohne technisches Fachwissen oder Ressourcen offen steht, sodass sie Modelle von Grund auf trainieren können, was die Rechenleistung weiter „demokratisiert“. und AI-Basismodell.
Eine Feinabstimmung ist wichtig, da viele Entwickler nicht über genügend Daten und Mittel verfügen, um das Modell neu zu trainieren. Er sagte, dass die Kosten für die Feinabstimmung gesenkt wurden um 90 %, wodurch die Kosten für jedes Modell um etwa 30 US-Dollar gesenkt werden. Saurabh Vij glaubt, dass die Open-Source-Modellschulung positive Aspekte hat. Monster API hat die Notwendigkeit erkannt, potenzielle Risiken in seinem dezentralen Netzwerk zu verwalten und „Nachverfolgbarkeit, Transparenz und Rechenschaftspflicht“ sicherzustellen großes Vertrauen in die Open-Source-Community und ihre unglaublich schnelle Entwicklung.“ Es gibt 25 Millionen registrierte Entwickler auf Postman (API-Entwicklungsplattform), und ein großer Teil von ihnen baut generative KI auf, die neue Geschäfte für alle und neue Möglichkeiten eröffnet, “, sagte er.
Geek.com hat erfahren, dass das Ziel der Monster API durch das Training kostengünstiger KI-Modelle darin besteht, Entwicklern zu ermöglichen, den Einsatz von maschinellem Lernen für Innovationen zu maximieren. Derzeit verfügen sie bereits über einige bekannte KI-Modelle (wie Stable Diffusion und Whisper), die fein abgestimmt werden können. Darüber hinaus können Benutzer diese GPU-Rechenleistung auch nutzen, um ihre eigenen KI-Basismodelle von Grund auf zu trainieren.
Saurabh Vij sagte: „Wir haben Experimente zur Text- und Bildgenerierung auf MacBooks durchgeführt und können mindestens 10 Bilder pro Minute ausgeben. Wir hoffen, Millionen von MacBooks mit dem Netzwerk zu verbinden, damit Benutzer sie im Schlaf verwenden können. Ihre MacBooks laufen stabil.“ Diffusion, Whisper oder andere KI-Modelle für Profit
Das obige ist der detaillierte Inhalt vonDieses Startup nutzt ein verteiltes Netzwerk, um inaktive GPUs in Reihe zu schalten, und behauptet, die Schulungskosten für KI-Modelle um 90 % senken zu können.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!