


Kneron bringt den neuesten KI-Chip KL730 auf den Markt, um die groß angelegte Anwendung leichter GPT-Lösungen voranzutreiben
Der Fortschritt in der Energieeffizienz von KL730 hat den größten Engpass bei der Implementierung von Modellen der künstlichen Intelligenz gelöst – die Energiekosten sind im Vergleich zur Industrie und zu früheren Nerner-Chips um das Drei- bis Vierfache gestiegen
Der KL730-Chip unterstützt das fortschrittlichste, leichte GPT-Großsprachenmodell, wie etwa nanoGPT, und bietet eine effektive Rechenleistung von 0,35 – 4 Tera pro SekundeDas KI-Unternehmen Kneron gab heute die Veröffentlichung des KL730-Chips bekannt, der NPU und Bildsignalverarbeitung (ISP) in Automobilqualität integriert und sichere und energiesparende KI-Funktionen für Edge-Server, Smart Homes und Anwendungen der Klasse für unterstützte Fahrsysteme im Automobilbereich ermöglicht Szenarien. Kneron mit Sitz in San Diego ist bekannt für seine bahnbrechenden Neural Processing Units (NPUs)
Knerons neuester Chip KL730 ist für die Realisierung künstlicher Intelligenzfunktionen konzipiert und hat bei einer Reihe von Energiespar- und Sicherheitstechnologien Durchbrüche erzielt. Der Chip verfügt über eine Mehrkanalschnittstelle, die nahtlos auf eine Vielzahl digitaler Signale wie Bilder, Videos, Audio und Millimeterwellen zugreifen kann, um die Entwicklung von Anwendungen der künstlichen Intelligenz in verschiedenen Branchen zu unterstützen
KL730 hat einen großen Durchbruch in der Forschung und Entwicklung der Energieeffizienz erzielt. Im Vergleich zu früheren Kneron-Chips wurde seine Energieeffizienz um das Drei- bis Vierfache verbessert und ist 150 bis 200 % höher als die der Hauptprodukte derselben Branche
Der Gründer und CEO von Kneron, Liu Juncheng, sagte, dass KL730 durch seine beispiellose Effizienz und die Unterstützung von Frameworks wie Transformer zu einem Innovator im Bereich Edge-KI werden wird und dabei die Datensicherheit und den Datenschutz in vollem Umfang gewährleistet Potenzial der künstlichen Intelligenz
Kneron konzentriert sich auf Edge-KI und hat erfolgreich eine Reihe leichter und skalierbarer KI-Chips entwickelt, um die Entwicklung von KI-Fähigkeiten sicher voranzutreiben. Im Jahr 2021 veröffentlichte Kneron den KL530, den ersten Edge-KI-Chip, der die neuronale Netzwerkarchitektur Transformer unterstützt. Die neuronale Netzwerkarchitektur Transformer ist die Grundlage aller GPT-Modelle. Der KL730-Chip bereichert die Produktserie weiter, bietet eine effektive Rechenleistung von 0,35 bis 4 Tera pro Sekunde und erweitert die Fähigkeit, die fortschrittlichsten, leichten GPT-Großsprachenmodelle (wie nanoGPT) zu unterstützen
KL730 ist ein einzigartig positionierter Chip, der die Sicherheit im AIot-Bereich verbessern und es Benutzern ermöglichen kann, GPT-Modelle teilweise oder vollständig offline auf Endgeräten auszuführen. In Kombination mit Kneo, dem privaten sicheren Edge-KI-Netzwerk von Kneron, ermöglicht dieser Chip die Ausführung von KI auf den Edge-Geräten der Benutzer und sorgt so für einen besseren Datenschutz. Diese Anwendungen werden in verschiedenen Branchen häufig eingesetzt, darunter Serverlösungen für Unternehmen, intelligente Fahrfahrzeuge und KI-gestützte medizinische Geräte. Durch die verbesserte Sicherheit können Geräte besser zusammenarbeiten und die Daten bleiben geschützt. Ingenieure können beispielsweise neue Halbleiterchips entwerfen, ohne sensible Daten mit Rechenzentren zu teilen, die von großen Cloud-Unternehmen betrieben werden
Seit seiner Gründung im Jahr 2015 hat Kneron in der Branche große Anerkennung für seine rekonfigurierbare NPU-Architektur erlangt und mehrere Auszeichnungen gewonnen, darunter den IEEE Darlington Award. Kneron-Chips werden erfolgreich in Terminalprodukten in verschiedenen Branchen eingesetzt und decken Bereiche wie AIoT, intelligentes Fahren und Edge-Server ab. Zu den Partnern gehören Toyota, Quanta Electronics, Chunghwa Telecom, Panasonic, Hanwha und viele andere bekannte Unternehmen
Der KL730 wird bald als Muster bei Geräteherstellern erhältlich sein. Erfahren Sie mehr und erkunden Sie das unbegrenzte Potenzial des KL730
Über langanhaltende Leistung
Kanner wurde 2015 gegründet und hat seinen Hauptsitz in San Diego, USA. Es ist der weltweit führende Hersteller von umfassenden Edge-KI-Computing-Lösungen. Durch seine selbst entwickelte effiziente und leichte rekonfigurierbare neuronale Netzwerkarchitektur hat Kneron die drei Hauptprobleme, mit denen Edge-KI-Geräte konfrontiert sind, einschließlich Latenz, Sicherheit und Kosten, erfolgreich gelöst und so eine allgegenwärtige KI realisiert. Bisher hat Kneron mehr als 140 Millionen US-Dollar an Finanzierungen erhalten und auf Investitionen von Horizons Investment, Sequoia Capital, Qualcomm, Hon Hai, Lite-On Technology, Winbond Electronics, Macronix Electronics, ADATA Technology und Quanke Technology gewartet Unterstützung durch mehrere Investoren
Das obige ist der detaillierte Inhalt vonKneron bringt den neuesten KI-Chip KL730 auf den Markt, um die groß angelegte Anwendung leichter GPT-Lösungen voranzutreiben. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Laut Nachrichten vom 14. November hat Nvidia auf der „Supercomputing23“-Konferenz am Morgen des 13. Ortszeit offiziell die neue H200-GPU vorgestellt und die GH200-Produktlinie aktualisiert. Darunter basiert der H200 weiterhin auf der bestehenden Hopper H100-Architektur Allerdings wurde mehr Speicher mit hoher Bandbreite (HBM3e) hinzugefügt, um die großen Datenmengen, die für die Entwicklung und Implementierung künstlicher Intelligenz erforderlich sind, besser verarbeiten zu können, wodurch die Gesamtleistung beim Betrieb großer Modelle im Vergleich zur vorherigen Generation H100 um 60 % bis 90 % verbessert wurde . Der aktualisierte GH200 wird auch die nächste Generation von KI-Supercomputern antreiben. Im Jahr 2024 werden mehr als 200 Exaflops KI-Rechenleistung online sein. H200

Berichten vom 19. Juni zufolge hat sich Google (Google) laut Medienberichten in Taiwan an MediaTek gewandt, um bei der Entwicklung des neuesten serverorientierten KI-Chips zusammenzuarbeiten, und plant, ihn für die Gießerei an den 5-nm-Prozess von TSMC zu übergeben um es Anfang nächsten Jahres in Massenproduktion zu bringen. Dem Bericht zufolge enthüllten Quellen, dass diese Zusammenarbeit zwischen Google und MediaTek MediaTek mit Serialisierungs- und Deserialisierungslösungen (SerDes) versorgen und dabei helfen wird, Googles selbst entwickelten Tensorprozessor (TPU) zu integrieren, um Google bei der Entwicklung der neuesten Server-KI-Chips zu unterstützen, die leistungsfähiger sein werden als CPU- oder GPU-Architekturen. Die Branche weist darauf hin, dass viele der aktuellen Dienste von Google mit KI zu tun haben. Sie hat vor vielen Jahren in Deep-Learning-Technologie investiert und festgestellt, dass die Verwendung von GPUs zur Durchführung von KI-Berechnungen sehr teuer ist

Nach dem Debüt des NVIDIA H200, der als der leistungsstärkste KI-Chip der Welt bekannt ist, begann die Branche, sich auf den leistungsstärkeren B100-Chip zu freuen. Gleichzeitig hat OpenAI, das beliebteste KI-Start-up-Unternehmen dieses Jahres, begonnen ein leistungsfähigeres und komplexeres GPT-5-Modell zu entwickeln. Guotai Junan wies im neuesten Forschungsbericht darauf hin, dass die B100 und GPT5 mit grenzenloser Leistung voraussichtlich im Jahr 2024 auf den Markt kommen und die großen Upgrades möglicherweise eine beispiellose Produktivität ermöglichen. Die Agentur erklärte, sie sei optimistisch, dass die KI in eine Phase der schnellen Entwicklung eintreten werde und ihre Sichtbarkeit bis 2024 anhalten werde. Wie leistungsstark sind B100 und GPT-5 im Vergleich zu früheren Produktgenerationen? Nvidia und OpenAI haben bereits eine Vorschau gegeben: B100 könnte mehr als viermal schneller sein als H100, und GPT-5 könnte Super erreichen

Der Fortschritt des KL730 bei der Energieeffizienz hat den größten Engpass bei der Implementierung von Modellen der künstlichen Intelligenz gelöst – die Energiekosten. Im Vergleich zur Industrie und zu früheren Nerner-Chips ist der KL730-Chip um das Drei- bis Vierfache gestiegen Große Sprachmodelle wie nanoGPT bieten eine effektive Rechenleistung von 0,35 bis 4 Tera pro Sekunde. Das KI-Unternehmen Kneron gab heute die Veröffentlichung des KL730-Chips bekannt, der NPU und Bildsignalverarbeitung (ISP) in Automobilqualität integriert, um sichere und sichere Ergebnisse zu erzielen Niedrigenergie-KI Die Fähigkeiten werden in verschiedenen Anwendungsszenarien wie Edge-Servern, Smart Homes und Fahrzeugassistenzsystemen zum Fahren unterstützt. Das in San Diego ansässige Unternehmen Kneron ist für seine bahnbrechenden Neural Processing Units (NPUs) bekannt und sein neuester Chip, der KL730, hat genau das zum Ziel

Während die Welt immer noch von NVIDIA H100-Chips besessen ist und sie verrückt kauft, um die wachsende Nachfrage nach KI-Rechenleistung zu befriedigen, hat NVIDIA am Montag Ortszeit stillschweigend seinen neuesten KI-Chip H200 auf den Markt gebracht, der im Vergleich zu anderen zum Trainieren großer KI-Modelle verwendet wird Die Leistung der Produkte der Vorgängergeneration H100 und H200 wurde um etwa 60 % bis 90 % verbessert. H200 ist eine aktualisierte Version von Nvidia H100. Es basiert ebenfalls auf der Hopper-Architektur. Das Haupt-Upgrade umfasst 141 GB HBM3e-Videospeicher und die Videospeicherbandbreite wurde von 3,35 TB/s bei H100 erhöht. Laut der offiziellen Website von Nvidia ist der H200 auch der erste Chip des Unternehmens, der HBM3e-Speicher verwendet. Dieser Speicher ist schneller und hat eine größere Kapazität, sodass er besser für große Sprachen geeignet ist.

Den ursprünglichen Worten zufolge kann es wie folgt umgeschrieben werden: (Global TMT 16. August 2023) Das KI-Unternehmen Kneron mit Hauptsitz in San Diego und bekannt für seine bahnbrechenden Neural Processing Units (NPU) kündigte die Veröffentlichung des KL730-Chips an. Der Chip integriert NPU und Bildsignalverarbeitung (ISP) in Automobilqualität und bietet sichere und energiesparende KI-Funktionen für verschiedene Anwendungsszenarien wie Edge-Server, Smart Homes und Systeme für unterstütztes Fahren in der Automobilindustrie Im Hinblick auf die Energieeffizienz ist die Energieeffizienz im Vergleich zu früheren Nerner-Chips um das Drei- bis Vierfache gestiegen und liegt um 150 bis 200 % höher als bei ähnlichen Produkten in großen Industriezweigen. Der Chip verfügt über eine effektive Rechenleistung von 0,35 bis 4 Tera pro Sekunde und kann das fortschrittlichste leichte GPT Large unterstützen

Der CEO von Google verglich die KI-Revolution mit der Nutzung von Feuer durch die Menschheit, aber jetzt ist das digitale Feuer, das die Branche antreibt – KI-Chips – schwer zu bekommen. Die neue Generation fortschrittlicher Chips, die KI-Operationen vorantreiben, werden fast alle von NVIDIA hergestellt. Da ChatGPT explodiert, übersteigt die Marktnachfrage nach NVIDIA-Grafikprozessorchips (GPUs) das Angebot bei weitem. „Weil es einen Mangel gibt, ist Ihr Freundeskreis der Schlüssel“, sagte Sharon Zhou, Mitbegründerin und CEO von Lamini, einem Startup, das Unternehmen beim Aufbau von KI-Modellen wie Chatbots unterstützt. „Das ist wie Toilettenpapier während der Epidemie.“ Diese Art von Situation hat die Rechenleistung eingeschränkt, die Cloud-Dienstleister wie Amazon und Microsoft Kunden wie OpenAI, dem Erfinder von ChatGPT, zur Verfügung stellen können.

Microsoft entwickelt KI-optimierte Chips, um die Kosten für das Training generativer KI-Modelle zu senken, beispielsweise diejenigen, die den OpenAIChatGPT-Chatbot antreiben. Die Information zitierte kürzlich zwei mit der Angelegenheit vertraute Personen mit der Aussage, dass Microsoft seit mindestens 2019 einen neuen Chipsatz mit dem Codenamen „Athena“ entwickelt. Mitarbeiter von Microsoft und OpenAI haben bereits Zugriff auf die neuen Chips und testen damit die Leistung des Chips auf großen Sprachmodellen wie GPT-4. Das Training großer Sprachmodelle erfordert die Aufnahme und Analyse großer Datenmengen, um neue Ausgabeinhalte für die KI zu erstellen, um menschliche Konversationen nachzuahmen. Dieser Prozess erfordert eine große Anzahl (in der Größenordnung von Dutzenden). von Tausenden) von A
