


Kneron kündigt die Einführung seines neuesten KI-Chips KL730 an
Den Originalworten zufolge kann es wie folgt umgeschrieben werden: (Global TMT 16. August 2023) Das KI-Unternehmen Kneron mit Hauptsitz in San Diego, das für seine bahnbrechende Neural Processing Unit (NPU) bekannt ist, gab die Veröffentlichung des KL730-Chips bekannt. Der Chip integriert NPU und Bildsignalverarbeitung (ISP) in Automobilqualität und bietet sichere und energiesparende KI-Funktionen für verschiedene Anwendungsszenarien wie Edge-Server, Smart Homes und Systeme zum assistierten Fahren in der Automobilindustrie
Das obige ist der detaillierte Inhalt vonKneron kündigt die Einführung seines neuesten KI-Chips KL730 an. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Laut Nachrichten vom 14. November hat Nvidia auf der „Supercomputing23“-Konferenz am Morgen des 13. Ortszeit offiziell die neue H200-GPU vorgestellt und die GH200-Produktlinie aktualisiert. Darunter basiert der H200 weiterhin auf der bestehenden Hopper H100-Architektur Allerdings wurde mehr Speicher mit hoher Bandbreite (HBM3e) hinzugefügt, um die großen Datenmengen, die für die Entwicklung und Implementierung künstlicher Intelligenz erforderlich sind, besser verarbeiten zu können, wodurch die Gesamtleistung beim Betrieb großer Modelle im Vergleich zur vorherigen Generation H100 um 60 % bis 90 % verbessert wurde . Der aktualisierte GH200 wird auch die nächste Generation von KI-Supercomputern antreiben. Im Jahr 2024 werden mehr als 200 Exaflops KI-Rechenleistung online sein. H200

Berichten vom 19. Juni zufolge hat sich Google (Google) laut Medienberichten in Taiwan an MediaTek gewandt, um bei der Entwicklung des neuesten serverorientierten KI-Chips zusammenzuarbeiten, und plant, ihn für die Gießerei an den 5-nm-Prozess von TSMC zu übergeben um es Anfang nächsten Jahres in Massenproduktion zu bringen. Dem Bericht zufolge enthüllten Quellen, dass diese Zusammenarbeit zwischen Google und MediaTek MediaTek mit Serialisierungs- und Deserialisierungslösungen (SerDes) versorgen und dabei helfen wird, Googles selbst entwickelten Tensorprozessor (TPU) zu integrieren, um Google bei der Entwicklung der neuesten Server-KI-Chips zu unterstützen, die leistungsfähiger sein werden als CPU- oder GPU-Architekturen. Die Branche weist darauf hin, dass viele der aktuellen Dienste von Google mit KI zu tun haben. Sie hat vor vielen Jahren in Deep-Learning-Technologie investiert und festgestellt, dass die Verwendung von GPUs zur Durchführung von KI-Berechnungen sehr teuer ist

Nach dem Debüt des NVIDIA H200, der als der leistungsstärkste KI-Chip der Welt bekannt ist, begann die Branche, sich auf den leistungsstärkeren B100-Chip zu freuen. Gleichzeitig hat OpenAI, das beliebteste KI-Start-up-Unternehmen dieses Jahres, begonnen ein leistungsfähigeres und komplexeres GPT-5-Modell zu entwickeln. Guotai Junan wies im neuesten Forschungsbericht darauf hin, dass die B100 und GPT5 mit grenzenloser Leistung voraussichtlich im Jahr 2024 auf den Markt kommen und die großen Upgrades möglicherweise eine beispiellose Produktivität ermöglichen. Die Agentur erklärte, sie sei optimistisch, dass die KI in eine Phase der schnellen Entwicklung eintreten werde und ihre Sichtbarkeit bis 2024 anhalten werde. Wie leistungsstark sind B100 und GPT-5 im Vergleich zu früheren Produktgenerationen? Nvidia und OpenAI haben bereits eine Vorschau gegeben: B100 könnte mehr als viermal schneller sein als H100, und GPT-5 könnte Super erreichen

Der Fortschritt des KL730 bei der Energieeffizienz hat den größten Engpass bei der Implementierung von Modellen der künstlichen Intelligenz gelöst – die Energiekosten. Im Vergleich zur Industrie und zu früheren Nerner-Chips ist der KL730-Chip um das Drei- bis Vierfache gestiegen Große Sprachmodelle wie nanoGPT bieten eine effektive Rechenleistung von 0,35 bis 4 Tera pro Sekunde. Das KI-Unternehmen Kneron gab heute die Veröffentlichung des KL730-Chips bekannt, der NPU und Bildsignalverarbeitung (ISP) in Automobilqualität integriert, um sichere und sichere Ergebnisse zu erzielen Niedrigenergie-KI Die Fähigkeiten werden in verschiedenen Anwendungsszenarien wie Edge-Servern, Smart Homes und Fahrzeugassistenzsystemen zum Fahren unterstützt. Das in San Diego ansässige Unternehmen Kneron ist für seine bahnbrechenden Neural Processing Units (NPUs) bekannt und sein neuester Chip, der KL730, hat genau das zum Ziel

Während die Welt immer noch von NVIDIA H100-Chips besessen ist und sie verrückt kauft, um die wachsende Nachfrage nach KI-Rechenleistung zu befriedigen, hat NVIDIA am Montag Ortszeit stillschweigend seinen neuesten KI-Chip H200 auf den Markt gebracht, der im Vergleich zu anderen zum Trainieren großer KI-Modelle verwendet wird Die Leistung der Produkte der Vorgängergeneration H100 und H200 wurde um etwa 60 % bis 90 % verbessert. H200 ist eine aktualisierte Version von Nvidia H100. Es basiert ebenfalls auf der Hopper-Architektur. Das Haupt-Upgrade umfasst 141 GB HBM3e-Videospeicher und die Videospeicherbandbreite wurde von 3,35 TB/s bei H100 erhöht. Laut der offiziellen Website von Nvidia ist der H200 auch der erste Chip des Unternehmens, der HBM3e-Speicher verwendet. Dieser Speicher ist schneller und hat eine größere Kapazität, sodass er besser für große Sprachen geeignet ist.

Den ursprünglichen Worten zufolge kann es wie folgt umgeschrieben werden: (Global TMT 16. August 2023) Das KI-Unternehmen Kneron mit Hauptsitz in San Diego und bekannt für seine bahnbrechenden Neural Processing Units (NPU) kündigte die Veröffentlichung des KL730-Chips an. Der Chip integriert NPU und Bildsignalverarbeitung (ISP) in Automobilqualität und bietet sichere und energiesparende KI-Funktionen für verschiedene Anwendungsszenarien wie Edge-Server, Smart Homes und Systeme für unterstütztes Fahren in der Automobilindustrie Im Hinblick auf die Energieeffizienz ist die Energieeffizienz im Vergleich zu früheren Nerner-Chips um das Drei- bis Vierfache gestiegen und liegt um 150 bis 200 % höher als bei ähnlichen Produkten in großen Industriezweigen. Der Chip verfügt über eine effektive Rechenleistung von 0,35 bis 4 Tera pro Sekunde und kann das fortschrittlichste leichte GPT Large unterstützen

Der CEO von Google verglich die KI-Revolution mit der Nutzung von Feuer durch die Menschheit, aber jetzt ist das digitale Feuer, das die Branche antreibt – KI-Chips – schwer zu bekommen. Die neue Generation fortschrittlicher Chips, die KI-Operationen vorantreiben, werden fast alle von NVIDIA hergestellt. Da ChatGPT explodiert, übersteigt die Marktnachfrage nach NVIDIA-Grafikprozessorchips (GPUs) das Angebot bei weitem. „Weil es einen Mangel gibt, ist Ihr Freundeskreis der Schlüssel“, sagte Sharon Zhou, Mitbegründerin und CEO von Lamini, einem Startup, das Unternehmen beim Aufbau von KI-Modellen wie Chatbots unterstützt. „Das ist wie Toilettenpapier während der Epidemie.“ Diese Art von Situation hat die Rechenleistung eingeschränkt, die Cloud-Dienstleister wie Amazon und Microsoft Kunden wie OpenAI, dem Erfinder von ChatGPT, zur Verfügung stellen können.

Microsoft entwickelt KI-optimierte Chips, um die Kosten für das Training generativer KI-Modelle zu senken, beispielsweise diejenigen, die den OpenAIChatGPT-Chatbot antreiben. Die Information zitierte kürzlich zwei mit der Angelegenheit vertraute Personen mit der Aussage, dass Microsoft seit mindestens 2019 einen neuen Chipsatz mit dem Codenamen „Athena“ entwickelt. Mitarbeiter von Microsoft und OpenAI haben bereits Zugriff auf die neuen Chips und testen damit die Leistung des Chips auf großen Sprachmodellen wie GPT-4. Das Training großer Sprachmodelle erfordert die Aufnahme und Analyse großer Datenmengen, um neue Ausgabeinhalte für die KI zu erstellen, um menschliche Konversationen nachzuahmen. Dieser Prozess erfordert eine große Anzahl (in der Größenordnung von Dutzenden). von Tausenden) von A
