


En soutenant ChatGPT, le pari de Huang Renxun sur l'IA depuis dix ans a rapporté d'énormes retours
News du 8 mars, au cours des 25 dernières années environ, NVIDIA a toujours mené la révolution dans le domaine de l'infographie, occupant une position dominante sur le marché des unités de traitement graphique (GPU) et devenant une marque populaire appréciée par les joueurs. Malgré son récent déclin, le secteur des jeux a quand même généré plus de 9 milliards de dollars de revenus pour Nvidia l'année dernière.
Le dernier rapport financier de Nvidia montre de nouveaux signes de croissance dans le secteur des processeurs graphiques, cette technologie étant désormais devenue le cœur du boom de l'IA. Le mois dernier, Jensen Huang, PDG de Nvidia, a déclaré : « Nous avons très judicieusement modifié la stratégie de l'entreprise. Il y a une dizaine d'années, nous avons vu que cette façon de faire des logiciels pouvait tout changer. Nous avons changé l'entreprise de bas en haut. se développer horizontalement. Chaque puce que nous fabriquons est axée sur l'IA. " En tant que moteur derrière le chatbot ChatGPT et d'autres grands modèles de langage (LLM), NVIDIA a enfin commencé à se concentrer sur l'IA. » Nvidia des malheurs de l'industrie des semi-conducteurs. Jen-Hsun Huang a déclaré : « Nous avons repensé tous nos produits pour être conformes aux réglementations tout en étant en mesure de servir nos clients commerciaux. Nous sommes en mesure de fournir à nos clients des pièces réglementées et sommes heureux de les soutenir
NVIDIA prévoit de le faire. » La conférence annuelle des développeurs GTC de la société se tiendra du 20 au 23 mars et l'IA devrait être au centre de l'événement. Auparavant, Huang Jensen avait évoqué le rôle central de l'entreprise dans l'essor du contenu généré par l'IA (AIGC). Lorsqu'on lui a demandé si les énormes retours de Nvidia étaient dus à la chance ou à la prévoyance, Huang a répondu : "Nous croyons simplement fermement qu'un jour, quelque chose de nouveau se produira, et le reste nécessitera des découvertes fortuites.
Le processeur graphique est Nvidia. Son activité principale en représente plus." plus de 80% du chiffre d'affaires de l'entreprise. Ils sont souvent vendus comme le cerveau des cartes graphiques et peuvent également ajouter de la puissance de calcul aux unités centrales de traitement (CPU) fabriquées par des sociétés telles qu'AMD et Intel. Désormais, les entreprises technologiques en concurrence avec ChatGPT vantent ouvertement le nombre de Nvidia A100 qu'elles possèdent, une puce d'une valeur d'environ 10 000 dollars qui est devenue l'un des outils les plus critiques de l'industrie de l'IA. Microsoft a déclaré que le supercalculateur développé pour OpenAI utilise 10 000 Nvidia A100.
Vivek Arya, analyste des semi-conducteurs chez BofA Securities, a déclaré : "Il est très facile d'utiliser les produits de NVIDIA et d'augmenter la puissance de calcul. À l'heure actuelle, la puissance de calcul est fondamentalement équivalente à la monnaie forte de la Silicon Valley
Huang Jen-Hsun NVIDIA." Le système de génération H100 a été présenté et a commencé à être expédié. H signifie Hopper. Il a déclaré : « Ce qui est vraiment étonnant avec Hopper, c'est cette nouvelle technologie de traitement appelée Transformer Engine. Transformer Engine signifie le T dans GPT (Generative Pre-trained Transformer). Il s'agit du premier ordinateur au monde conçu pour gérer des convertisseurs à grande échelle, si grands les modèles de langage seront plus rapides et plus rentables », a déclaré Jen-Hsun Huang, qui a personnellement livré la première machine au monde au supercalculateur OpenAI du développeur ChatGPT.
Pas peur de tout mettre en jeuAujourd'hui, NVIDIA est l'une des dix entreprises technologiques les plus valorisées au monde, avec une valeur marchande de près de 600 milliards de dollars. L'entreprise compte 26 000 employés et a construit un nouveau siège social sur le thème du polygone. Nvidia est également l'un des rares géants de la Silicon Valley à être encore dirigé par son fondateur depuis 30 ans. Huang, 60 ans, a immigré aux États-Unis lorsqu'il était enfant et a étudié l'ingénierie à l'université d'État de l'Oregon et à l'université de Stanford. Au début des années 1990, Huang a rencontré les ingénieurs Chris Malachowsky et Curtis Priem dans un restaurant Denny's pour discuter de la création d'ordinateurs personnels capables de faire rêver des graphiques 3D.
En 1993, les trois ont fondé NVIDIA dans un appartement à Fremont, en Californie. Le nom est inspiré de NV (prochaine version) et d'Invidia, qui signifie envie en latin. Ils voulaient augmenter leur vitesse de calcul et rendre tout le monde envieux, ils ont donc choisi les yeux verts qui représentent l'envie comme logo de l'entreprise.
Aria, analyste des semi-conducteurs chez Bank of America Securities, a déclaré : "NVIDIA était l'un des dizaines de fabricants de GPU à l'époque, et c'était la seule entreprise qui a vraiment survécu parce que NVIDIA travaillait bien avec la communauté logicielle et les développeurs
."L'ambition de Huang Jen-Hsun et son penchant à prendre des risques apparemment impossibles ont poussé Nvidia au bord de la faillite à plusieurs reprises. "Toute entreprise fait des erreurs, et j'en ai commis beaucoup", admet-il. "Certaines d'entre elles ont même mis l'entreprise en danger, surtout au début, parce que nous étions si petits et que nous avions affaire à de nombreux géants. Nous pouvons le faire. ne travaillez dur que pour développer des technologies complètement nouvelles. »
Par exemple, vers 2010, NVIDIA est entré dans le domaine des smartphones avec ses processeurs de la série Tegra, mais sans succès. L’entreprise a ensuite complètement quitté le marché. Toujours en 1999, après avoir licencié la plupart de ses employés, Nvidia a lancé ce qui était considéré comme le premier processeur graphique officiel au monde, le GeForce 256. C'était la première carte graphique programmable permettant de personnaliser les ombres et les effets de lumière. En 2000, Nvidia était devenu le fournisseur exclusif de puces graphiques de Microsoft pour la première Xbox. En 2006, la société a fait un autre grand pari et a publié une boîte à outils logicielle appelée CUDA.
Bryan Catanzaro, vice-président de la recherche appliquée sur l'apprentissage profond chez NVIDIA, a déclaré : « Depuis 10 ans, Wall Street demande à NVIDIA : 'Pourquoi faites-vous cet investissement ? Personne ne l'utilise.' à zéro pour cent. » Lorsque Catanzaro a rejoint Nvidia en 2008, il était l’un des rares employés travaillant sur la recherche en IA. Aujourd’hui, l’entreprise compte des milliers d’employés travaillant dans ce domaine.
Catanzaro a déclaré : « Ce n'est que vers 2016, 10 ans après la sortie de CUDA, que les gens ont soudainement réalisé qu'il s'agissait d'une façon complètement différente d'écrire des programmes informatiques. »
Bien que le secteur de l'IA se développe rapidement, les jeux restent l'activité principale de NVIDIA. En 2018, l’entreprise a utilisé son expertise en IA pour faire un grand pas en avant dans le domaine graphique. Sur la base de l'expérience acquise dans le domaine de l'IA, NVIDIA a lancé GeForce RTX.
Jensen Huang a déclaré : « Pour faire passer l'infographie et les jeux vidéo au niveau supérieur, nous devons réinventer la technologie et nous révolutionner, en changeant complètement ce que nous inventons. Nous avons inventé cette nouvelle façon de faire de l'infographie, le lancer de rayons, simulant essentiellement le chemin de la lumière et simulons tout avec l'IA générative. Nous calculons donc un pixel, puis utilisons l'IA pour imaginer les sept autres pixels. "
Depuis le début, Jen-Hsun Huang. Nvidia s'engage à construire une entreprise de puces sans usine. , qui se concentre sur la conception de produits et sous-traite la production à d'autres sociétés disposant d'usines de traitement de copeaux. En externalisant la fabrication des puces à TSMC
, NVIDIA réduit ses dépenses en capital. TSMC a annoncé qu'il dépenserait 40 milliards de dollars pour construire deux nouvelles usines de fabrication de puces en Arizona. Huang a promis que Nvidia utiliserait l'usine de TSMC en Arizona pour fabriquer des puces. Ariya, analyste des semi-conducteurs chez BofA Securities, a déclaré : « Cela crée un gros problème pour Nvidia car l'extraction de crypto-monnaie a été dans un cycle d'expansion-récession. Les cartes graphiques de jeu sont en rupture de stock, les prix augmentent, et puis lorsque les crypto-monnaies. Lorsque l'engouement pour le minage s'effondrera, les cartes graphiques de jeu s'effondreront également de façon spectaculaire. " L'année dernière, les nouveaux GPU de la série 40 de Nvidia étaient beaucoup plus chers que la génération précédente et ont été critiqués par certains joueurs. En raison d'une offre excédentaire, les revenus de l'activité jeux de Nvidia ont chuté de 46 % au cours du dernier trimestre par rapport à la même période de l'année dernière. La concurrence s'intensifie à mesure que les géants de la technologie tels que Tesla, Apple, Google et Amazon conçoivent de plus en plus leurs propres puces personnalisées. "La grande question pour Nvidia est de savoir comment garder une longueur d'avance ? Leurs clients pourraient également devenir leurs concurrents", a déclaré Arria. "Microsoft pourrait essayer de concevoir ces choses en interne, et Amazon et Google conçoivent déjà leurs puces en interne". maison." "Mais pour Huang Renxun, les avantages d'une telle compétition l'emportent sur les inconvénients. Il a déclaré : « La demande en énergie des centres de données mondiaux va augmenter, et c'est un gros problème pour le monde. La première chose que nous devrions faire est : chaque centre de données dans le monde, peu importe ce que vous décidez de faire, pour Conservez les avantages de l’informatique durable et accélérez là où vous le pouvez. » Sur le marché automobile, Nvidia développe une technologie de conduite autonome pour Mercedes-Benz et d’autres. Ses systèmes sont également utilisés pour alimenter des robots dans les entrepôts Amazon et exécuter des simulations via la plateforme Omniverse pour optimiser la livraison de millions de colis chaque jour. Huang Renxun a déclaré : « Nous avons désormais plus de 700 clients qui essaient Omniverse, de l'industrie automobile aux entrepôts logistiques en passant par les usines d'éoliennes. Il représente probablement le plus grand conteneur de toutes les technologies NVIDIA : infographie, IA, robotique et simulation physique, tout en un. J'ai de grands espoirs en cela." (Xiao Xiao)Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Cet article décrit comment ajuster le niveau de journalisation du serveur Apacheweb dans le système Debian. En modifiant le fichier de configuration, vous pouvez contrôler le niveau verbeux des informations de journal enregistrées par Apache. Méthode 1: Modifiez le fichier de configuration principal pour localiser le fichier de configuration: le fichier de configuration d'Apache2.x est généralement situé dans le répertoire / etc / apache2 /. Le nom de fichier peut être apache2.conf ou httpd.conf, selon votre méthode d'installation. Modifier le fichier de configuration: Ouvrez le fichier de configuration avec les autorisations racine à l'aide d'un éditeur de texte (comme Nano): Sutonano / etc / apache2 / apache2.conf

Dans Debian Systems, les appels du système ReadDir sont utilisés pour lire le contenu des répertoires. Si ses performances ne sont pas bonnes, essayez la stratégie d'optimisation suivante: simplifiez le nombre de fichiers d'annuaire: divisez les grands répertoires en plusieurs petits répertoires autant que possible, en réduisant le nombre d'éléments traités par appel ReadDir. Activer la mise en cache de contenu du répertoire: construire un mécanisme de cache, mettre à jour le cache régulièrement ou lorsque le contenu du répertoire change et réduire les appels fréquents à Readdir. Les caches de mémoire (telles que Memcached ou Redis) ou les caches locales (telles que les fichiers ou les bases de données) peuvent être prises en compte. Adoptez une structure de données efficace: si vous implémentez vous-même la traversée du répertoire, sélectionnez des structures de données plus efficaces (telles que les tables de hachage au lieu de la recherche linéaire) pour stocker et accéder aux informations du répertoire

Dans Debian Systems, la fonction ReadDir est utilisée pour lire le contenu du répertoire, mais l'ordre dans lequel il revient n'est pas prédéfini. Pour trier les fichiers dans un répertoire, vous devez d'abord lire tous les fichiers, puis les trier à l'aide de la fonction QSORT. Le code suivant montre comment trier les fichiers de répertoire à l'aide de ReadDir et QSort dans Debian System: # include # include # include # include # include // Fonction de comparaison personnalisée, utilisée pour qsortintCompare (constvoid * a, constvoid * b) {returnstrcmp (* (

La configuration du pare-feu d'un serveur de courrier Debian est une étape importante pour assurer la sécurité du serveur. Voici plusieurs méthodes de configuration de pare-feu couramment utilisées, y compris l'utilisation d'iptables et de pare-feu. Utilisez les iptables pour configurer le pare-feu pour installer iptables (sinon déjà installé): Sudoapt-getUpDaSuDoapt-getinstalliptableView Règles actuelles iptables: Sudoiptable-L Configuration

Les étapes pour installer un certificat SSL sur le serveur de messagerie Debian sont les suivantes: 1. Installez d'abord la boîte à outils OpenSSL, assurez-vous que la boîte à outils OpenSSL est déjà installée sur votre système. Si ce n'est pas installé, vous pouvez utiliser la commande suivante pour installer: Sudoapt-getUpDaSuDoapt-getInstallOpenSSL2. Générer la clé privée et la demande de certificat Suivant, utilisez OpenSSL pour générer une clé privée RSA 2048 bits et une demande de certificat (RSE): OpenSS

La fonction ReadDir dans le système Debian est un appel système utilisé pour lire le contenu des répertoires et est souvent utilisé dans la programmation C. Cet article expliquera comment intégrer ReadDir avec d'autres outils pour améliorer sa fonctionnalité. Méthode 1: combinant d'abord le programme de langue C et le pipeline, écrivez un programme C pour appeler la fonction readdir et sortir le résultat: # include # include # include # includeIntmain (intargc, char * argv []) {dir * dir; structDirent * entrée; if (argc! = 2) {

Dans Debian Systems, OpenSSL est une bibliothèque importante pour le chiffrement, le décryptage et la gestion des certificats. Pour empêcher une attaque d'homme dans le milieu (MITM), les mesures suivantes peuvent être prises: utilisez HTTPS: assurez-vous que toutes les demandes de réseau utilisent le protocole HTTPS au lieu de HTTP. HTTPS utilise TLS (Protocole de sécurité de la couche de transport) pour chiffrer les données de communication pour garantir que les données ne sont pas volées ou falsifiées pendant la transmission. Vérifiez le certificat de serveur: vérifiez manuellement le certificat de serveur sur le client pour vous assurer qu'il est digne de confiance. Le serveur peut être vérifié manuellement via la méthode du délégué d'URLSession

Gérer les journaux Hadoop sur Debian, vous pouvez suivre les étapes et les meilleures pratiques suivantes: l'agrégation de journal Activer l'agrégation de journaux: définir yarn.log-aggregation-inable à true dans le fichier yarn-site.xml pour activer l'agrégation de journaux. Configurer la stratégie de rétention du journal: Définissez Yarn.log-agregation.retain-secondes pour définir le temps de rétention du journal, tel que 172800 secondes (2 jours). Spécifiez le chemin de stockage des journaux: via yarn.n
