localisation actuelle:Maison > Articles techniques > Périphériques technologiques > IA

  • L'algorithme CVM révolutionnaire résout plus de 40 ans de problèmes de comptage ! Un informaticien lance une pièce de monnaie pour trouver le mot unique pour « Hamlet »
    L'algorithme CVM révolutionnaire résout plus de 40 ans de problèmes de comptage ! Un informaticien lance une pièce de monnaie pour trouver le mot unique pour « Hamlet »
    Compter semble simple, mais en pratique, c'est très difficile. Imaginez que vous êtes transporté dans une forêt tropicale vierge pour effectuer un recensement de la faune. Chaque fois que vous voyez un animal, prenez une photo. Les appareils photo numériques enregistrent uniquement le nombre total d'animaux suivis, mais vous êtes intéressé par le nombre d'animaux uniques, mais il n'y a pas de statistiques. Alors, quelle est la meilleure façon d’accéder à cette population animale unique ? À ce stade, vous devez dire : commencez à compter maintenant et comparez enfin chaque nouvelle espèce de la photo à la liste. Cependant, cette méthode de comptage courante n'est parfois pas adaptée aux informations pouvant atteindre des milliards d'entrées. Des informaticiens de l'Institut indien de statistique, UNL, et de l'Université nationale de Singapour ont proposé un nouvel algorithme : le CVM. Il peut approximer le calcul de différents éléments dans une longue liste.
    IA 1104 2024-06-07 15:44:57
  • Pratique de démarrage à froid des ressources recommandée par Baidu
    Pratique de démarrage à froid des ressources recommandée par Baidu
    1. Contenu Concept de démarrage à froid et défis Baidu Feed Recommendation est une plate-forme complète de recommandation de flux d'informations avec des centaines de millions d'utilisateurs mensuels. La plateforme couvre une variété de types de contenu tels que des graphiques, des vidéos, des mises à jour, des mini-programmes, des questions-réponses, etc. Il fournit non seulement des recommandations clic-clic similaires aux colonnes simples ou doubles, mais comprend également diverses formes de recommandation telles que l'immersion vidéo. Dans le même temps, le système de recommandation est un système multipartite qui n’inclut pas seulement l’expérience utilisateur côté C. Les producteurs de contenu jouent un rôle important dans le système de recommandation. Baidu Feed compte un grand nombre de praticiens actifs, produisant des quantités massives de contenu chaque jour. L'essence du système de recommandation de la plate-forme de contenu est de parvenir à une situation gagnant-gagnant pour toutes les parties. Du côté des utilisateurs : la plate-forme doit continuellement recommander aux utilisateurs un contenu de haute qualité, frais et diversifié, en attirant plus d'utilisateurs et en y consacrant plus de temps. ; pour le côté auteur
    IA 710 2024-06-07 15:08:43
  • Extrayez des millions de fonctionnalités de Claude 3 et comprenez pour la première fois la « pensée » des grands modèles en détail
    Extrayez des millions de fonctionnalités de Claude 3 et comprenez pour la première fois la « pensée » des grands modèles en détail
    Anthropic vient d'annoncer avoir fait des progrès significatifs dans la compréhension du fonctionnement interne des modèles d'intelligence artificielle. Anthropic a identifié comment représenter des millions de concepts de fonctions propres dans ClaudeSonnet. Il s’agit de la première compréhension détaillée d’un modèle de langage moderne à grande échelle de qualité production. Cette interprétabilité nous aidera à améliorer la sécurité des modèles d’intelligence artificielle, ce qui constitue une étape importante. Document de recherche : https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html Actuellement, nous considérons généralement les modèles d'intelligence artificielle comme une boîte noire : si quelque chose entre, une réponse en sortira, mais ce n'est pas le cas. clair pourquoi.
    IA 777 2024-06-07 13:37:45
  • Les chercheurs utilisent l'apprentissage automatique pour optimiser les expériences laser haute puissance
    Les chercheurs utilisent l'apprentissage automatique pour optimiser les expériences laser haute puissance
    Les lasers à haute intensité et à haute répétition peuvent émettre de puissants éclats de lumière plusieurs fois par seconde en succession rapide. Les centrales commerciales d’énergie de fusion et les sources de rayonnement avancées à base de combustible s’appuient sur de tels lasers. Cependant, le temps de réaction humaine est insuffisant pour gérer de tels systèmes à tir rapide, ce qui rend leur application difficile. Pour relever ce défi, les scientifiques recherchent différentes façons d’exploiter la puissance de l’automatisation et de l’intelligence artificielle, qui permettent de surveiller en temps réel les opérations de haute intensité. Une équipe de chercheurs du Laboratoire national Lawrence Livermore (LLNL), de l'Institut Fraunhofer de technologie laser (ILT) et d'Aurora Infrastructure (ELIERIC) aux États-Unis mène une expérience en République tchèque utilisant l'apprentissage automatique (ML) pour optimiser les lasers de haute puissance. Leur objectif est d'augmenter l'efficacité des lasers afin qu'ils puissent mieux faire face aux
    IA 739 2024-06-07 13:03:20
  • Surpassant Devin, Yao Ban conduit OpenCSG à établir un nouveau record mondial de programmation de grands modèles
    Surpassant Devin, Yao Ban conduit OpenCSG à établir un nouveau record mondial de programmation de grands modèles
    StarShipCodeGenAgent, lancé par OpenCSG, une startup de modélisme à grande échelle en Chine, a atteint la deuxième place mondiale dans le classement WEBench (Real Independent Programming Evaluation of Large Models) grâce à l'innovation. Dans le même temps, il a créé un record le plus élevé (SOTA) basé sur le modèle GPT-4o. (Nombre de mots : 37) L'évaluation de SWEBench est très proche des scénarios de programmation réels et extrêmement difficile. Elle nécessite non seulement que le modèle comprenne les exigences et coordonne les changements entre plusieurs fonctions/classes, mais nécessite également que le modèle interagisse avec l'environnement d'exécution. gérez des contextes ultra-longs et exécutez des programmes à distance. Raisonnement logique complexe pour des tâches de génération de code ultra-traditionnelles. Dans ce test réel difficile, les GPT4 et Devin les plus avancés de l'industrie également
    IA 807 2024-06-07 12:36:29
  • Yolov10 : explication détaillée, déploiement et application en un seul endroit !
    Yolov10 : explication détaillée, déploiement et application en un seul endroit !
    1. Introduction Au cours des dernières années, les YOLO sont devenus le paradigme dominant dans le domaine de la détection d'objets en temps réel en raison de leur équilibre efficace entre le coût de calcul et les performances de détection. Les chercheurs ont exploré la conception architecturale de YOLO, les objectifs d'optimisation, les stratégies d'expansion des données, etc., et ont réalisé des progrès significatifs. Dans le même temps, le recours à la suppression non maximale (NMS) pour le post-traitement entrave le déploiement de bout en bout de YOLO et affecte négativement la latence d'inférence. Dans les YOLO, la conception de divers composants manque d’une inspection complète et approfondie, ce qui entraîne une redondance informatique importante et limite les capacités du modèle. Il offre une efficacité sous-optimale et un potentiel d’amélioration des performances relativement important. Dans ce travail, l'objectif est d'améliorer encore les limites d'efficacité des performances de YOLO à la fois en post-traitement et en architecture de modèle. à cette fin
    IA 1239 2024-06-07 12:05:27
  • Le premier langage GPU de haut niveau, le parallélisme massif, c'est comme écrire Python, a reçu 8 500 étoiles
    Le premier langage GPU de haut niveau, le parallélisme massif, c'est comme écrire Python, a reçu 8 500 étoiles
    Après près de 10 ans d’efforts inlassables et de recherches approfondies sur le cœur de l’informatique, les gens ont enfin réalisé un rêve : exécuter des langages de haut niveau sur des GPU. Le week-end dernier, un langage de programmation appelé Bend a suscité de vives discussions au sein de la communauté open source, et le nombre d'étoiles sur GitHub a dépassé les 8 500. GitHub : https://github.com/HigherOrderCO/Bend En tant que langage de programmation de haut niveau massivement parallèle, il en est encore au stade de la recherche, mais les idées proposées ont déjà surpris. Avec Bend, vous pouvez écrire du code parallèle pour CPU/GPU multicœurs sans avoir à être un expert C/CUDA avec 10 ans d'expérience, cela ressemble à Python
    IA 1222 2024-06-07 12:03:58
  • Déployez Elasticsearch basé sur le stockage en mémoire : plus de 100 millions de données, recherche en texte intégral, réponse de 100 ms
    Déployez Elasticsearch basé sur le stockage en mémoire : plus de 100 millions de données, recherche en texte intégral, réponse de 100 ms
    1. Montez le répertoire de stockage de mémoire sur l'hôte. Créez un répertoire pour le montage mkdir/mnt/memory_storage. Montez le système de fichiers tmpfs mount-ttmpfs-osize=800Gtmpfs/mnt/memory_storage. , lors de l’utilisation d’un stockage de 100 Go, il occupera 100 Go de mémoire. Il y a 2T de mémoire sur le nœud hôte et 800G de mémoire sont alloués ici pour stocker les données Elasticsearch. Créez le répertoire mkdir/mnt/memory_storage/elasticsearch-data-es-jfs-prod-es-defaul à l'avance
    IA 641 2024-06-07 11:11:48
  • Le nouveau tutoriel de Karpathy devient viral et les internautes se précipitent pour lui donner H100 : recréer la formation GPT-2 à partir de zéro
    Le nouveau tutoriel de Karpathy devient viral et les internautes se précipitent pour lui donner H100 : recréer la formation GPT-2 à partir de zéro
    Le maître Karpathy ne se contente plus d'utiliser le langage C pour créer Llama ! Dernier défi qu'il s'est donné : reproduire les résultats classiques d'OpenAI, à commencer par la version de base de GPT-2. Le succès du défi lui-même n'est pas inattendu, mais il n'a coûté que 20 dollars américains et 90 minutes pour terminer la formation, et la perte et l'évaluation ont dépassé la version originale, tout simplement ! avoir! indiquer! Passer! indiquer! J'ai compris! . Non seulement cela, il a écrit un tutoriel complet sur le processus de reproduction, et bien sûr, il est redevenu populaire. Depuis que Karpathy a lui-même loué le service cloud A100, la formation sur la version 124M coûte 20 $. Cependant, quelqu'un a suivi le didacticiel et a utilisé le H100. Non seulement le temps de formation est devenu plus court, mais cela a également permis d'économiser de l'argent : il a été réalisé en 43 minutes et n'a coûté que 14 dollars américains. De plus, Karpathy a également payé 2 de sa poche
    IA 616 2024-06-07 10:29:25
  • Sept questions d'entretien technique Cool GenAI et LLM
    Sept questions d'entretien technique Cool GenAI et LLM
    Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte
    IA 947 2024-06-07 10:06:29
  • Déployer de grands modèles de langage localement dans OpenHarmony
    Déployer de grands modèles de langage localement dans OpenHarmony
    Cet article ouvrira en source les résultats du « Déploiement local de grands modèles de langage dans OpenHarmony » démontrés lors de la 2e conférence technologique OpenHarmony. Adresse : https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/. InferLLM/docs/hap_integrate.md. Les idées et les étapes de mise en œuvre consistent à transplanter le cadre d'inférence de modèle LLM léger InferLLM vers le système standard OpenHarmony et à compiler un produit binaire pouvant s'exécuter sur OpenHarmony. InferLLM est un L simple et efficace
    IA 1228 2024-06-07 10:02:23
  • Axé sur l'innovation, Intel lance une nouvelle stratégie de marque Xeon®
    Axé sur l'innovation, Intel lance une nouvelle stratégie de marque Xeon®
    La marque est un symbole de la mission et du développement de l'entreprise, et porte également les caractéristiques du produit et la reconnaissance du marché. Aujourd'hui, lors du lancement du processeur central économe en énergie Intel® Xeon® 6 au Intel GTC Technology Experience Center, Brett Hannath, vice-président mondial et directeur du marketing d'Intel Corporation, a annoncé le lancement de la nouvelle marque Intel® Xeon®. . Brett Hannath a déclaré que la nouvelle stratégie de marque Intel® Xeon® se concentrera sur l'innovation, donnera des attributs de marque aux produits avec une dénomination plus concise et une signification plus profonde, et améliorera la reconnaissance de la marque Xeon sur le marché. Grâce à l'intégration de technologies innovantes, de hautes performances, de haute efficacité, de haute qualité et de fonctionnalités de sécurité élevées, nous créons une nouvelle expérience pour les partenaires industriels et les utilisateurs. Depuis son introduction en 1998, la marque Intel® Xeon®
    IA 1059 2024-06-07 09:29:48
  • Terminateur réfléchissant ultra brillant ? Google NeRF-Casting : le lancer de rayons peut le faire !
    Terminateur réfléchissant ultra brillant ? Google NeRF-Casting : le lancer de rayons peut le faire !
    NeRF n'a plus « peur » des réflexions quasi spéculaires. Les premières variantes de NeRF utilisaient des perceptrons multicouches (MLP) pour cartographier les coordonnées 3D à la densité volumétrique et à la couleur dépendant du point de vue, mais la représentation détaillée de la géométrie 3D et de la couleur nécessitait une formation de grands MLP et une évaluation. extrêmement lent. Des travaux récents se sont concentrés sur l'amélioration de l'efficacité du NeRF en remplaçant les grands MLP par des structures de données de type grille voxel ou une combinaison de grilles et de petits MLP. Bien qu’évolutif pour représenter des scènes détaillées à grande échelle, ses avantages se limitent à une géométrie tridimensionnelle et à une couleur principalement diffuse. Étendre la capacité de NeRF à modéliser l'apparence de la réalité en fonction du point de vue reste un défi. Le modèle avancé actuel pour la synthèse de vues d'objets brillants présente des limites sur deux aspects : il ne peut synthétiser que la lumière ambiante distante.
    IA 1310 2024-06-07 09:27:53
  • LLM | Yuan 2.0-M32 : modèle de mélange expert avec routage d'attention
    LLM | Yuan 2.0-M32 : modèle de mélange expert avec routage d'attention
    Image 1. La conclusion est écrite ci-dessus. Yuan+2.0-M32 est une infrastructure, similaire à Yuan-2.0+2B, utilisant une architecture hybride experte contenant 32 experts. 2 de ces experts sont actifs. Une architecture hybride experte contenant 32 experts est proposée et adoptée pour sélectionner les experts plus efficacement. Par rapport au modèle utilisant le réseau de routage classique, le taux de précision est amélioré de 3,8 %. Yuan+2.0-M32 est formé à partir de zéro, en utilisant 2 000 milliards de jetons, et sa consommation de formation n'est que de 9,25 % de celle d'un modèle d'ensemble dense de même taille de paramètre. Afin de mieux sélectionner les experts, le routeur d'attention est introduit, qui a la capacité de détecter rapidement et ainsi de permettre une meilleure sélection des experts. Yuan2.0-
    IA 706 2024-06-07 09:06:30
  • Construire une loi d'échelle à partir de 80 modèles : un nouveau travail d'un doctorant chinois, fortement recommandé par l'auteur de la chaîne de réflexion
    Construire une loi d'échelle à partir de 80 modèles : un nouveau travail d'un doctorant chinois, fortement recommandé par l'auteur de la chaîne de réflexion
    Dans le domaine de l'IA, les lois de mise à l'échelle (Scalinglaws) sont un outil puissant pour comprendre les tendances de mise à l'échelle du LM. Elles fournissent une ligne directrice aux chercheurs. Cette loi constitue un guide important pour comprendre comment les performances des modèles de langage changent avec l'échelle. Mais malheureusement, l'analyse de mise à l'échelle n'est pas courante dans de nombreuses études comparatives et post-formation, car la plupart des chercheurs ne disposent pas des ressources informatiques nécessaires pour créer des lois de mise à l'échelle à partir de zéro, et les modèles ouverts sont formés sur trop peu d'échelles pour faire des prédictions de mise à l'échelle fiables. Des chercheurs de l'Université de Stanford, de l'Université de Toronto et d'autres institutions ont proposé une méthode d'observation alternative : les lois d'échelle observationnelles (Observational Scaling Laws), qui combinent les fonctions des modèles de langage (LM) avec des modèles croisés.
    IA 668 2024-06-06 20:40:36

Recommandations d'outils

Code de contact du formulaire de message d'entreprise jQuery

Le code de contact du formulaire de message d'entreprise jQuery est un formulaire de message d'entreprise simple et pratique et le code de la page d'introduction contactez-nous.

Effets de lecture de boîte à musique HTML5 MP3

L'effet spécial de lecture de boîte à musique HTML5 MP3 est un lecteur de musique MP3 basé sur HTML5 + CSS3 pour créer de jolies émoticônes de boîte à musique et cliquer sur le bouton de commutation.

Effets spéciaux du menu de navigation d'animation de particules cool HTML5

L'effet de menu de navigation d'animation de particules cool HTML5 est un effet spécial qui change de couleur lorsque le menu de navigation est survolé par la souris.

Code d'édition par glisser-déposer du formulaire visuel jQuery

Le code d'édition par glisser-déposer du formulaire visuel jQuery est un formulaire visuel basé sur jQuery et le framework bootstrap.

Modèle Web de fournisseur de fruits et légumes biologiques Bootstrap5

Un modèle Web de fournisseur de fruits et légumes biologiques-Bootstrap5
Modèle d'amorçage
2023-02-03

Modèle de page Web réactive de gestion d'arrière-plan d'informations de données multifonctionnelles Bootstrap3-Novus

Modèle de page Web réactive de gestion d'arrière-plan d'informations de données multifonctionnelles Bootstrap3-Novus
modèle de back-end
2023-02-02

Modèle de page Web de plate-forme de services de ressources immobilières Bootstrap5

Modèle de page Web de plate-forme de services de ressources immobilières Bootstrap5
Modèle d'amorçage
2023-02-02

Modèle Web d'informations de CV simples Bootstrap4

Modèle Web d'informations de CV simples Bootstrap4
Modèle d'amorçage
2023-02-02

Matériau vectoriel d'éléments d'été mignons (EPS+PNG)

Il s'agit d'un joli matériau vectoriel d'éléments d'été, comprenant le soleil, un chapeau de soleil, un cocotier, un bikini, un avion, une pastèque, une crème glacée, une boisson fraîche, une bouée, des tongs, un ananas, une conque, une coquille, une étoile de mer, un crabe. , Citrons, crème solaire, lunettes de soleil, etc., le matériel est fourni aux formats EPS et PNG, y compris des aperçus JPG.
Matériau PNG
2024-05-09

Matériel vectoriel de quatre badges de graduation rouges 2023 (AI+EPS+PNG)

Il s'agit d'un matériau vectoriel de badge de remise des diplômes rouge 2023, quatre au total, disponible aux formats AI, EPS et PNG, y compris l'aperçu JPG.
Matériau PNG
2024-02-29

Oiseau chantant et chariot rempli de fleurs design matériel vectoriel de bannière de printemps (AI + EPS)

Il s'agit d'un matériau vectoriel de bannière printanière conçu avec des oiseaux chanteurs et un chariot rempli de fleurs. Il est disponible aux formats AI et EPS, y compris l'aperçu JPG.
image de bannière
2024-02-29

Matériau vectoriel de chapeau de graduation doré (EPS+PNG)

Il s'agit d'un matériau vectoriel de casquette de graduation dorée, disponible aux formats EPS et PNG, y compris l'aperçu JPG.
Matériau PNG
2024-02-27

Modèle de site Web d'entreprise de services de nettoyage et de réparation de décoration intérieure

Le modèle de site Web d'entreprise de services de nettoyage et d'entretien de décoration d'intérieur est un modèle de site Web à télécharger adapté aux sites Web promotionnels qui proposent des services de décoration, de nettoyage, d'entretien et d'autres organisations de services. Astuce : Ce modèle appelle la bibliothèque de polices Google et la page peut s'ouvrir lentement.
Modèle frontal
2024-05-09

Modèle de page de guide de CV personnel aux couleurs fraîches

Le modèle de page de guide de CV de candidature personnelle de correspondance de couleurs fraîches est un téléchargement de modèle Web de page de guide d'affichage de travail de CV de recherche d'emploi personnel adapté au style de correspondance de couleurs fraîches. Astuce : Ce modèle appelle la bibliothèque de polices Google et la page peut s'ouvrir lentement.
Modèle frontal
2024-02-29

Modèle Web de CV de travail créatif de concepteur

Le modèle Web de CV de travail créatif de concepteur est un modèle Web téléchargeable pour l'affichage de CV personnels adapté à divers postes de concepteur. Astuce : Ce modèle appelle la bibliothèque de polices Google et la page peut s'ouvrir lentement.
Modèle frontal
2024-02-28

Modèle de site Web d'entreprise de construction d'ingénierie moderne

Le modèle de site Web d'entreprise d'ingénierie et de construction moderne est un modèle de site Web téléchargeable adapté à la promotion du secteur des services d'ingénierie et de construction. Astuce : Ce modèle appelle la bibliothèque de polices Google et la page peut s'ouvrir lentement.
Modèle frontal
2024-02-28