


Quatre départements ont proposé conjointement : augmenter le taux de super déduction des dépenses de R&D des entreprises de puces à 120 %
Selon les informations de ce site du 18 septembre, le ministère des Finances, l'Administration nationale des impôts, la Commission nationale du développement et de la réforme et le ministère de l'Industrie et des Technologies de l'information ont publié aujourd'hui conjointement une annonce sur l'augmentation du taux de super déduction pour la R&D. dépenses pour les entreprises de circuits intégrés et de cartes mères industrielles pour encourager davantage la R&D et l'innovation des entreprises à promouvoir le développement de haute qualité de l'industrie des circuits intégrés et de l'industrie des cartes mères industrielles.

Pendant la période du 1er janvier 2023 au 31 décembre 2027, 120 % du montant réel sera déduit avant impôt si des immobilisations incorporelles sont constituées, 220 % du coût de ; les immobilisations incorporelles seront amorties avant impôts pendant la période ci-dessus .
Note de ce site : Les entreprises de circuits intégrés mentionnées à l'article 1 font référence aux entreprises de production, de conception, d'équipement, de matériaux, d'emballage et de test de circuits intégrés encouragées par l'État. Les informations de l'Encyclopédie montrent que les immobilisations incorporelles sont également appelées « immobilisations incorporelles ». Désigne les actifs qui n'ont pas de forme physique mais qui peuvent conférer à l'entreprise des droits spéciaux à long terme ou aider l'entreprise à obtenir des rendements plus élevés,sont répertoriés comme actifs incorporels tels que les marques, la clientèle, les droits d'auteur et les droits d'auteur. droits de brevet, droits de location, droits de franchise, etc..
Déclaration publicitaire : les liens de saut externes (y compris, mais sans s'y limiter, les hyperliens, les codes QR, les mots de passe, etc.) contenus dans l'article sont utilisés pour transmettre plus d'informations et gagner du temps de sélection. Les résultats sont à titre de référence uniquement. ce site contient cette déclaration.Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Selon les informations du 30 mai, même si le marché des puces mémoire est atone, il existe une énorme demande d'intelligence artificielle, qui profitera à des entreprises telles que Samsung et SK Hynix. Le 24 mai, Nvidia a publié son rapport financier et la valeur marchande de l’entreprise a bondi de 207 milliards de dollars en deux jours. Auparavant, l'industrie des semi-conducteurs était en récession, et ces prévisions du rapport financier ont donné aux gens beaucoup de confiance et d'espoir. Si le domaine de l’intelligence artificielle décolle, les géants de la technologie traditionnelle comme Microsoft et les start-up comme OpenAI solliciteront l’aide d’entreprises comme Samsung et SK Hynix. L'apprentissage automatique nécessite des puces mémoire pour traiter de grandes quantités de données, analyser la vidéo, l'audio et le texte et simuler la créativité humaine. En fait, les entreprises d’IA achètent peut-être plus de puces DRAM que jamais. Demande de puces mémoire

Nouvelles de ce site le 28 novembre. Selon le site officiel de Changxin Memory, Changxin Memory a lancé la dernière puce mémoire LPDDR5DRAM. Il s'agit de la première marque nationale à lancer des produits LPDDR5 développés et produits de manière indépendante. Elle n'a réalisé aucune percée sur le marché national. marché et a également rendu la présentation des produits de Changxin Storage sur le marché des terminaux mobiles plus diversifiée. Ce site Web a remarqué que les produits de la série Changxin Memory LPDDR5 incluent des particules LPDDR5 de 12 Go, des puces 12GBLPDDR5 emballées par POP et des puces 6GBLPDDR5 emballées par DSC. La puce 12GBLPDDR5 a été vérifiée sur les modèles des principaux fabricants de téléphones mobiles nationaux tels que Xiaomi et Transsion. LPDDR5 est un produit lancé par Changxin Memory pour le marché des appareils mobiles de milieu à haut de gamme.

On ne sait pas exactement qui a fabriqué la puce de 1 nm. Du point de vue de la recherche et du développement, la puce de 1 nm a été développée conjointement par Taiwan, la Chine et les États-Unis. Du point de vue de la production de masse, cette technologie n’est pas encore pleinement réalisée. Le principal responsable de cette recherche est le Dr Zhu Jiadi du MIT, un scientifique chinois. Le Dr Zhu Jiadi a déclaré que la recherche en est encore à ses débuts et qu'elle est encore loin d'une production de masse.

Ce site Web a rapporté le 13 novembre que, selon le Taiwan Economic Daily, la demande de packaging avancé CoWoS de TSMC est sur le point d'exploser. Outre NVIDIA, qui a confirmé l'expansion de ses commandes en octobre, des clients importants tels qu'Apple, AMD, Broadcom et Marvell. ont également récemment poursuivi leurs commandes de manière significative. Selon les rapports, TSMC travaille dur pour accélérer l'expansion de la capacité de production d'emballages avancés de CoWoS afin de répondre aux besoins des cinq principaux clients mentionnés ci-dessus. La capacité de production mensuelle de l'année prochaine devrait augmenter d'environ 20 % par rapport à l'objectif initial pour atteindre 35 000 pièces. Les analystes ont déclaré que les cinq principaux clients de TSMC ont passé des commandes importantes, ce qui montre que les applications d'intelligence artificielle sont devenues très populaires et que les principaux fabricants s'y intéressent. puces d'intelligence artificielle. La demande a considérablement augmenté. Les enquêtes sur ce site ont révélé que la technologie d'emballage avancée CoWoS actuelle est principalement divisée en trois types - CoWos-S.

Il était une fois l’intelligence artificielle qui était entrée dans un goulot d’étranglement qui durait depuis des décennies en raison d’une puissance de calcul insuffisante, et le GPU a déclenché l’apprentissage profond. À l'ère ChatGPT, l'IA est à nouveau confrontée au problème de la puissance de calcul insuffisante en raison des grands modèles. Existe-t-il un moyen pour NVIDIA de le faire cette fois-ci ? Le 22 mars, la conférence GTC a eu lieu officiellement lors de la Keynote qui vient de se tenir, le PDG de NVIDIA, Jen-Hsun Huang, a présenté les puces préparées pour ChatGPT. "Accélérer l'informatique n'est pas facile. En 2012, le modèle de vision par ordinateur AlexNet utilisait une GeForce GTX580 et pouvait traiter 262 Peta FLOPS par seconde. Ce modèle a déclenché une explosion de la technologie de l'IA", a déclaré Huang. "Dix ans plus tard, Tr

Selon les informations de ce site Web du 24 août, la plupart des fabricants de technologies ont présenté des produits nouveaux ou à venir à la Gamescom. Par exemple, ASRock a présenté sa version mise à jour "demi-génération" de la carte mère Z790. Ces nouvelles cartes mères utilisent la puce RTL8125-BG. est utilisé à la place du RTL8126-CG utilisé dans le prototype présenté au salon Computex en juin. Selon le média néerlandais Tweakers, plusieurs fabricants de cartes mères participant à la Gamescom ont révélé que bien que la puce de carte réseau filaire 5GbE de Realtek, RTL8126-CG, soit moins chère, elle ne sera pas installée sur les cartes mères lancées cet automne en raison de problèmes de stabilité. problème, mais ils ne pourront pas le résoudre avant la sortie des nouvelles cartes mères cet automne

Après que ChatGPT soit devenu populaire, la guerre de l'IA entre les deux géants Google et Microsoft a brûlé de nouvelles puces de serveur de terrain. Aujourd’hui, l’IA et le cloud computing sont devenus des champs de bataille, et les puces sont également devenues la clé pour réduire les coûts et gagner des clients professionnels. À l’origine, les grandes entreprises telles qu’Amazon, Microsoft et Google étaient toutes réputées pour leurs logiciels, mais elles dépensent désormais des milliards de dollars dans le développement et la production de puces. La puce d'IA ChatGPT développée par les grands géants de la technologie est devenue populaire et les principaux fabricants ont lancé un concours de puces. Selon les médias étrangers The Information et d'autres sources, ces trois grands fabricants ont maintenant lancé ou prévoient de lancer 8 serveurs et. Puces IA pour le développement de produits internes, la location de serveurs cloud ou les deux. "si tu

Les dernières nouvelles montrent que, selon les rapports du Science and Technology Innovation Board Daily et de Blue Whale Finance, des sources de la chaîne industrielle ont révélé que NVIDIA a développé la dernière version de puces IA adaptées au marché chinois, notamment HGXH20, L20PCle et L2PCle. Pour l'instant, NVIDIA n'a pas commenté. Des personnes proches du dossier ont déclaré que ces trois puces sont toutes basées sur des améliorations de NVIDIA H100. NVIDIA devrait les annoncer dès le 16 novembre et les fabricants nationaux recevront des échantillons dès que celles-ci seront disponibles. jours. Après avoir vérifié les informations publiques, nous avons appris que NVIDIAH100TensorCoreGPU adopte la nouvelle architecture Hopper, basée sur le processus TSMC N4 et intégrant 80 milliards de transistors. Par rapport au produit de la génération précédente, il peut fournir des services multi-experts (MoE)
