


Kneron lance la dernière puce AI KL730 pour piloter l'application à grande échelle de solutions GPT légères
Les progrès en matière d'efficacité énergétique du KL730 ont résolu le plus gros goulot d'étranglement dans la mise en œuvre des modèles d'intelligence artificielle : les coûts énergétiques par rapport à l'industrie et aux puces Nerner précédentes, ils ont augmenté de 3 à 4 fois
.La puce KL730 prend en charge le modèle de langage GPT léger le plus avancé, tel que nanoGPT, et fournit une puissance de calcul effective de 0,35 à 4 téra par seconde
La société d'IA Kneron a annoncé aujourd'hui la sortie de la puce KL730, qui intègre un NPU de qualité automobile et un traitement du signal d'image (ISP), offrant des capacités d'IA sûres et à faible consommation d'énergie aux serveurs de périphérie, aux maisons intelligentes et aux applications de classe de conduite assistée automobile. scénarios. Kneron, basé à San Diego, est connu pour ses unités de traitement neuronal (NPU) révolutionnaires
La dernière puce KL730 de Kneron est conçue pour réaliser des fonctions d'intelligence artificielle et a réalisé des percées dans un certain nombre de technologies d'économie d'énergie et de sécurité. La puce dispose d'une interface multicanal qui peut accéder de manière transparente à une variété de signaux numériques, tels que des images, des vidéos, de l'audio et des ondes millimétriques, pour prendre en charge le développement d'applications d'intelligence artificielle dans diverses industries
La puce résout également l'un des goulots d'étranglement actuellement répandus dans l'intelligence artificielle : le coût élevé du système causé par un matériel inefficace généralisé.
KL730 a fait une énorme percée dans la recherche et le développement de l'efficacité énergétique. Par rapport aux puces Kneron précédentes, son efficacité énergétique a été améliorée de 3 à 4 fois et est de 150 % à 200 % supérieure à celle des principaux produits du même secteur.
Le fondateur et PDG de Kneron, Liu Juncheng, a déclaré que le KL730 deviendra un innovateur en matière d'IA de pointe, offrant de puissantes capacités d'IA à tous les horizons grâce à son efficacité sans précédent et à sa prise en charge de frameworks tels que Transformer, tout en garantissant la sécurité des données et la protection de la vie privée. potentiel de l'intelligence artificielle
Kneron se concentre sur l'IA de pointe et a développé avec succès une série de puces d'IA légères et évolutives pour promouvoir en toute sécurité le développement des capacités d'IA. En 2021, Kneron a lancé le KL530, la première puce d'IA de pointe à prendre en charge l'architecture de réseau neuronal Transformer. L'architecture du réseau neuronal Transformer est la base de tous les modèles GPT. La puce KL730 enrichit encore la série de produits, en fournissant une puissance de calcul effective de 0,35 à 4 téra par seconde et en élargissant la capacité de prendre en charge les modèles de langage GPT légers les plus avancés (tels que nanoGPT)
KL730 est une puce positionnée de manière unique qui peut améliorer la sécurité dans le domaine AIot et permettre aux utilisateurs d'exécuter des modèles GPT partiellement ou complètement hors ligne sur les terminaux. Associée à Kneo, le réseau d'IA de périphérie privé et sécurisé de Kneron, cette puce permet à l'IA de s'exécuter sur les appareils de périphérie des utilisateurs, protégeant ainsi mieux la confidentialité des données. Ces applications sont largement utilisées dans divers secteurs, notamment les solutions de serveurs d'entreprise, les véhicules de conduite intelligents et les équipements médicaux alimentés par l'IA. Une sécurité renforcée permet aux appareils de mieux fonctionner ensemble et de protéger les données. Par exemple, les ingénieurs peuvent concevoir de nouvelles puces semi-conductrices sans partager de données sensibles avec les centres de données exploités par de grandes sociétés cloud
Depuis sa création en 2015, Kneron a acquis une large reconnaissance dans l'industrie pour son architecture NPU reconfigurable et a remporté de nombreux prix, dont le prix IEEE Darlington. Les puces Kneron ont été utilisées avec succès dans des produits terminaux dans de nombreux secteurs, couvrant des domaines tels que l'AIoT, la conduite intelligente et les serveurs de pointe. Les partenaires incluent Toyota, Quanta Electronics, Chunghwa Telecom, Panasonic, Hanwha et de nombreuses autres sociétés bien connues
.Le KL730 sera bientôt échantillonné auprès des fabricants d'appareils, apprenez-en plus et explorez le potentiel illimité du KL730
À propos de performances durables
Kanner a été fondée en 2015 et a son siège à San Diego, aux États-Unis. C'est le premier fabricant mondial de solutions informatiques d'IA de pointe à grande échelle. Grâce à son architecture de réseau neuronal reconfigurable, efficace et légère, auto-développée, Kneron a réussi à résoudre les trois problèmes majeurs rencontrés par les appareils d'IA de pointe, notamment la latence, la sécurité et le coût, réalisant ainsi une IA omniprésente. Jusqu'à présent, Kneron a reçu plus de 140 millions de dollars de financement et a reçu des investissements d'Horizons Investment, Sequoia Capital, Qualcomm, Hon Hai, Lite-On Technology, Winbond Electronics, Macronix Electronics, ADATA Technology, Quanke Technology. En attente de soutien de plusieurs investisseurs
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Selon les informations du 14 novembre, Nvidia a officiellement lancé le nouveau GPU H200 lors de la conférence "Supercomputing23" le matin du 13, heure locale, et a mis à jour la gamme de produits GH200. Parmi eux, le H200 est toujours construit sur l'architecture Hopper H100 existante. Cependant, une mémoire à bande passante plus élevée (HBM3e) a été ajoutée pour mieux gérer les grands ensembles de données nécessaires au développement et à la mise en œuvre de l'intelligence artificielle, ce qui améliore de 60 à 90 % les performances globales d'exécution de grands modèles par rapport à la génération précédente H100. . Le GH200 mis à jour alimentera également la prochaine génération de supercalculateurs IA. En 2024, plus de 200 exaflops de puissance de calcul de l’IA seront en ligne. H200

Le 19 juin, selon les médias de Taiwan, en Chine, Google (Google) a contacté MediaTek pour coopérer afin de développer la dernière puce d'IA orientée serveur et prévoit de la confier au processus 5 nm de TSMC pour la fonderie, avec des plans pour production de masse au début de l’année prochaine. Selon le rapport, des sources ont révélé que cette coopération entre Google et MediaTek fournirait à MediaTek des solutions de sérialisation et de désérialisation (SerDes) et aiderait à intégrer le processeur tenseur (TPU) auto-développé par Google pour aider Google à créer les dernières puces Server AI qui seront plus puissantes. que les architectures CPU ou GPU. L’industrie souligne que de nombreux services actuels de Google sont liés à l’IA. Elle a investi dans la technologie d’apprentissage profond il y a de nombreuses années et a constaté que l’utilisation de GPU pour effectuer des calculs d’IA était très coûteuse. Google a donc décidé de le faire.

Après le lancement de la NVIDIA H200, connue comme la puce d'IA la plus puissante au monde, l'industrie a commencé à attendre avec impatience la puce B100, plus puissante de NVIDIA. Dans le même temps, OpenAI, la start-up d'IA la plus populaire cette année, a démarré. pour développer un modèle GPT-5 plus puissant et plus complexe. Guotai Junan a souligné dans le dernier rapport de recherche que les B100 et GPT5 aux performances illimitées devraient être commercialisés en 2024 et que les mises à niveau majeures pourraient générer une productivité sans précédent. L’agence s’est déclarée optimiste quant au fait que l’IA entrera dans une période de développement rapide et que sa visibilité se poursuivra jusqu’en 2024. Par rapport aux générations de produits précédentes, quelle est la puissance du B100 et du GPT-5 ? Nvidia et OpenAI ont déjà donné un aperçu : le B100 pourrait être plus de 4 fois plus rapide que le H100, et le GPT-5 pourrait atteindre un super

Les progrès en matière d'efficacité énergétique du KL730 ont résolu le plus gros goulot d'étranglement dans la mise en œuvre des modèles d'intelligence artificielle : le coût énergétique. Par rapport à l'industrie et aux puces Kneron précédentes, la puce KL730 a augmenté de 3 à 4 fois. Des modèles de langage GPT légers à grande échelle, tels que nanoGPT, et fournissent une puissance de calcul effective de 0,35 à 4 téra par seconde. La société d'IA Kneron a annoncé aujourd'hui la sortie de la puce KL730, qui intègre un NPU de qualité automobile et un traitement du signal d'image (ISP). pour apporter une IA sûre et à faible consommation d'énergie. Les capacités sont renforcées dans divers scénarios d'application tels que les serveurs de périphérie, les maisons intelligentes et les systèmes de conduite assistée automobile. Kneron, basé à San Diego, est connu pour ses unités de traitement neuronal (NPU) révolutionnaires, et sa dernière puce, la KL730, vise à atteindre

Alors que le monde est toujours obsédé par les puces NVIDIA H100 et les achète follement pour répondre à la demande croissante de puissance de calcul de l'IA, lundi, heure locale, NVIDIA a discrètement lancé sa dernière puce AI H200, qui est utilisée pour entraîner de grands modèles d'IA par rapport à d'autres. Les performances des produits de génération précédente H100 et H200 ont été améliorées d'environ 60 à 90 %. Le H200 est une version améliorée du Nvidia H100. Il est également basé sur l'architecture Hopper comme le H100. La mise à niveau principale comprend 141 Go de mémoire vidéo HBM3e, et la bande passante de la mémoire vidéo est passée de 3,35 To/s du H100 à 4,8. To/s. Selon le site officiel de Nvidia, la H200 est également la première puce de la société à utiliser la mémoire HBM3e. Cette mémoire est plus rapide et a une plus grande capacité, elle est donc plus adaptée aux grands langages.

Selon les mots originaux, il peut être réécrit comme suit : (Global TMT 16 août 2023) La société d'IA Kneron, dont le siège est à San Diego et connue pour ses unités de traitement neuronal (NPU) révolutionnaires, a annoncé la sortie de la puce KL730. La puce intègre un NPU de qualité automobile et un traitement du signal d'image (ISP) et fournit des capacités d'IA sûres et à faible consommation d'énergie pour divers scénarios d'application tels que les serveurs de périphérie, les maisons intelligentes et les systèmes de conduite assistée automobile. La puce KL730 a obtenu d'excellents résultats. termes d'efficacité énergétique. Une percée, par rapport aux puces Nerner précédentes, son efficacité énergétique a augmenté de 3 à 4 fois et est de 150 % à 200 % supérieure à celle des produits similaires dans les grandes industries. La puce a une puissance de calcul effective de 0,35 à 4 téra par seconde et peut prendre en charge le grand GPT léger le plus avancé.

Le PDG de Google compare la révolution de l’IA à l’utilisation du feu par l’humanité, mais désormais, le feu numérique qui alimente l’industrie – les puces IA – est difficile à trouver. La nouvelle génération de puces avancées qui pilotent les opérations d'IA sont presque toutes fabriquées par NVIDIA. Alors que ChatGPT sort du cercle, la demande du marché pour les puces de traitement graphique (GPU) NVIDIA dépasse de loin l'offre. "Parce qu'il y a une pénurie, la clé est votre cercle d'amis", a déclaré Sharon Zhou, co-fondatrice et PDG de Lamini, une startup qui aide les entreprises à construire des modèles d'IA tels que des chatbots. "C'est comme du papier toilette pendant l'épidémie". Ce genre de chose a limité la puissance de calcul que les fournisseurs de cloud comme Amazon et Microsoft peuvent offrir à des clients comme OpenAI, le créateur de ChatGPT.

Microsoft développe des puces optimisées pour l'IA afin de réduire le coût de formation des modèles d'IA génératifs, tels que ceux qui alimentent le chatbot OpenAIChatGPT. The Information a récemment cité deux personnes proches du dossier affirmant que Microsoft développait un nouveau chipset nommé « Athena » depuis au moins 2019. Les employés de Microsoft et d'OpenAI ont déjà accès aux nouvelles puces et les utilisent pour tester leurs performances sur de grands modèles de langage tels que GPT-4. La formation de grands modèles de langage nécessite l'ingestion et l'analyse de grandes quantités de données afin de créer un nouveau contenu de sortie pour l'IA afin d'imiter la conversation humaine. C'est une caractéristique des modèles d'IA génératifs. Ce processus en nécessite un grand nombre (de l'ordre de plusieurs dizaines). de milliers) de A
