Maison Problème commun Interprétation de l'intelligence artificielle : étapes clés de la formation et de l'inférence

Interprétation de l'intelligence artificielle : étapes clés de la formation et de l'inférence

Apr 11, 2024 pm 03:57 PM
人工智能

L'intelligence artificielle (IA), l'apprentissage automatique et l'IA générative sont devenus des éléments importants de la boîte à outils technologique des entreprises modernes. L’IA couvre un large éventail de technologies, notamment la traduction linguistique en temps réel, la reconnaissance faciale, les assistants vocaux, les systèmes de recommandation personnalisés et la détection des fraudes. Le processus de formation et d'inférence de l'IA est essentiel pour comprendre les capacités du modèle. La formation implique la formation d'un modèle à l'aide d'un ensemble de données, permettant au modèle d'apprendre des informations traitées et de faire des prédictions ou des décisions. La phase d'inférence applique le modèle formé à de nouvelles données, lui permettant d'effectuer des tâches telles que la reconnaissance d'images, la traduction linguistique ou la prise de décision.

Interprétation de l'intelligence artificielle : étapes clés de la formation et de l'inférence

L'intelligence artificielle, le machine learning et plus récemment l'intelligence artificielle générative font désormais partie de la boîte à outils technologique et méthodologique de toutes les entreprises engagées dans l'innovation numérique. L'intelligence artificielle comprend un large éventail de technologies capables d'effectuer des tâches qui nécessitent généralement l'intelligence humaine, telles que la traduction linguistique en temps réel, la reconnaissance faciale, les assistants vocaux, les systèmes de recommandation personnalisés ou la détection de fraude, ainsi que le diagnostic médical assisté par ordinateur pour identifier les maladies. à partir d'images radiologiques.

Discutons du processus de formation et d'inférence de l'IA pour mieux comprendre les capacités du modèle (*). Diagramme de formation IA

Remarque : les termes marqués (*) sont définis dans la section Glossaire à la fin de cet article.

Formation à l'intelligence artificielle

En bref, la formation à l'intelligence artificielle est le processus de développement d'un modèle d'apprentissage automatique basé sur une grande quantité de données de test.

Il s'agit de nourrir un modèle avec un ensemble de données (*) qui lui permet d'apprendre et de faire des prédictions (*) ou des décisions (*) en fonction des informations qu'il traite. C'est l'étape où le modèle acquiert les connaissances et les compétences nécessaires pour effectuer des tâches spécifiques.

Qu'il s'agisse d'interpréter un langage naturel (*) ou de réaliser des calculs complexes, cette étape est la base. En fait, il détermine la précision, l’efficacité et les performances globales du modèle et donc des applications qui l’utiliseront.

Le processus de formation du modèle IA comporte plusieurs étapes.

1. Préparation des données

Cette étape consiste à collecter, nettoyer et organiser les données dans un format permettant une utilisation efficace. Il est important de garantir la qualité et la fiabilité des données d’entrée du modèle.

2. Algorithmes

La deuxième étape consiste à choisir un algorithme (*) ou une architecture de réseau neuronal (*) approprié qui est le mieux adapté pour résoudre le problème que nous voulons résoudre.

3. Raffinement

Une fois le modèle sélectionné, la troisième étape est le raffinement itératif. Cela implique de former et de tester le modèle plusieurs fois pour ajuster ses paramètres en fonction des performances, améliorer sa précision et réduire les erreurs.

AI Training Class Diagram Image

Formation à l'intelligence artificielle : défis

La formation des modèles d'IA est confrontée à de réels défis tels que :

Qualité des données

Un modèle n'est aussi bon que la qualité des données de formation . Des ensembles de données inexacts, incomplets ou biaisés peuvent conduire à de mauvaises prévisions.

Ressources informatiques

Les ressources informatiques nécessaires à la formation nécessitent une puissance de traitement élevée et de grandes quantités de mémoire, notamment pour les modèles complexes tels que les réseaux de deep learning (*). Des phénomènes tels que le surapprentissage (*) peuvent dégrader la qualité des tâches de prédiction ou de classification.

Pour illustrer les ressources informatiques nécessaires à la formation d'un modèle d'IA, considérons que la formation d'un réseau d'apprentissage profond complexe comme GPT-3 nécessite des quantités massives de puissance de calcul pour intégrer ses 175 milliards de paramètres.

Inférence d'intelligence artificielle

Dans cette étape, un modèle d'apprentissage automatique entraîné (*) est appliqué à de nouvelles données, lui permettant d'effectuer des tâches telles que la prédiction, la classification, la recommandation ou la prise de décisions dans des applications du monde réel.

En d’autres termes, l’inférence est l’étape qui permet à un modèle d’IA de fournir l’avantage escompté, comme l’identification d’objets dans des images, la traduction de langues, la fourniture de recommandations de produits ou le guidage de véhicules autonomes.

Distinguer formation et inférence

Il existe deux critères principaux qui distinguent le processus d'inférence de la formation en IA :

L'importance du traitement des données en temps réel

Le besoin d'efficacité et de faible latence

En pratique , Les systèmes de conduite automatique ou de détection de fraude en temps réel doivent disposer de modèles capables d'interpréter rapidement les nouvelles données et d'agir rapidement.

Défis à surmonter

La phase d'inférence doit se concentrer sur l'efficacité des ressources, le maintien de performances cohérentes dans différents environnements et l'optimisation du modèle en termes de vitesse. Les modèles d’IA doivent être adaptables sans sacrifier la précision ou la fiabilité. Cela nécessite des techniques telles que l'élagage du modèle (*) ou la quantification (*) pour réduire la charge de calcul tout en évitant la dégradation des performances du modèle.

Exemples

Des exemples concrets illustrant l'application pratique de l'inférence sont les suivants :

Cybersécurité

Une fois formée sur un vaste ensemble de données d'interactions par courrier électronique, l'application peut identifier et signaler les menaces potentielles dans les courriers électroniques entrants ou. tentatives de phishing, protégeant ainsi les utilisateurs des menaces de cybersécurité.

Véhicules autonomes

De même, le domaine des véhicules autonomes s'appuie également fortement sur les capacités de raisonnement de l'intelligence artificielle. Dans ce cas, des modèles formés à partir d’innombrables heures de données de conduite sont utilisés en temps réel pour naviguer sur les routes, reconnaître les panneaux de signalisation et prendre des décisions en une fraction de seconde.

Formation vs inférence : analyse comparative

La formation et l'inférence sont deux étapes critiques et complémentaires dans le développement d'un modèle d'IA, chacune répondant à des besoins spécifiques. La phase de formation permet au modèle d'acquérir des connaissances à partir de données historiques. Cette étape nécessite beaucoup de puissance de calcul pour ajuster les paramètres du modèle afin d’obtenir des prédictions précises.

L'inférence, quant à elle, applique des modèles entraînés à de nouvelles données pour faire des prédictions ou des décisions en temps réel, soulignant l'importance de l'efficacité et d'une faible latence.

Points à retenir

Équilibrer la complexité du modèle, la formation complète et l'efficacité de l'inférence est essentiel pour le développement de systèmes d'intelligence artificielle.

Les modèles complexes peuvent mieux comprendre et prédire, mais nécessitent plus de ressources pour la formation et l'inférence.

Les développeurs doivent générer un modèle suffisamment complexe, suffisamment précis et suffisamment efficace pour être utilisé en temps réel.

Des techniques telles que l'élagage, la quantification et l'apprentissage par transfert peuvent optimiser les modèles en termes de précision et d'efficacité.

Exigences en matière d'infrastructure

Les exigences en matière d'infrastructure pour les phases de formation et d'inférence entraînent une forte dépendance aux performances du matériel.

La formation de modèles d'apprentissage profond est extrêmement gourmande en calcul et nécessite des ressources dédiées pour fournir une puissance de calcul puissante. Cette étape nécessite souvent des GPU hautes performances pour gérer de grands ensembles de données, dont dépendent la précision et l'efficacité du modèle.

En revanche, la phase d'inférence nécessite moins de puissance de calcul mais nécessite des performances à faible latence et à haut débit. Son infrastructure a besoin d'efficacité et de réactivité pour permettre un traitement de données en temps réel à proximité de la source de génération de données, comme les voitures autonomes ou nos serveurs de messagerie, mais aussi pour introduire un nouvel exemple dans le diagnostic des soins de santé.

Conclusion

Comprendre les subtilités de la formation et de l'inférence de l'IA révèle les complexités entre l'acquisition de connaissances via des modèles d'IA et le déploiement de ces connaissances dans des applications concrètes.

L'intelligence artificielle doit être non seulement puissante, mais aussi adaptable. Pour atteindre cet objectif, un équilibre doit être trouvé entre l’utilisation de ressources de formation étendues et la nécessité d’une inférence rapide et efficace. À mesure que l’IA progresse dans des domaines tels que la santé, la finance et l’industrie, ces étapes de formation et d’inférence sont essentielles car elles permettent la création d’une IA appliquée à des analyses de rentabilisation spécifiques.

Encore une chose...

Qu'en est-il de l'empreinte carbone ?

Pour faire progresser l'apprentissage automatique et l'intelligence artificielle, il est clairement nécessaire de se concentrer sur le développement de modèles d'intelligence artificielle plus efficaces, l'optimisation de l'infrastructure matérielle et l'adoption plus large de stratégies innovantes. Dans le même temps, l’empreinte écologique de l’IA doit peut-être également être prise en compte.

"La future intelligence artificielle nécessitera des percées énergétiques, et elle consommera beaucoup plus d'énergie que prévu."

- Sam Altman, PDG d'OpenAI

DAVOS, Suisse 16 janvier 2024

En fait, avec As the ; L’impact environnemental de la formation des modèles d’IA fait l’objet d’un examen minutieux, la durabilité devient une question importante. À mesure que les entreprises et le public l’adopteront, davantage d’électricité et de grandes quantités d’eau seront nécessaires pour alimenter et refroidir les plates-formes d’appareils du géant de la technologie. Par exemple, les chercheurs estiment que la fabrication du GPT-3 a consommé 1 287 mégawattheures d’électricité et produit 552 tonnes d’équivalent dioxyde de carbone, ce qui équivaut à conduire 123 voitures particulières à essence pendant un an.

S'efforcer de parvenir à un avenir plus durable où le progrès technologique et la responsabilité écologique coexistent harmonieusement pourrait être le but ultime de l'évolution de l'intelligence artificielle.

(*) Glossaire

  • Algorithme : un ensemble défini, étape par étape, de procédures ou de règles de calcul conçues pour effectuer une tâche spécifique ou résoudre un problème spécifique

  • Ensemble de données : une collection de points de données ou d'enregistrements , utilisant généralement Formulaire tabulaire utilisé pour entraîner, tester ou valider un modèle d'apprentissage automatique, comprenant des fonctionnalités (variables indépendantes) et des étiquettes (variables dépendantes ou résultats) dans l'apprentissage supervisé.

  • Décision : en apprentissage automatique, cela fait référence à la conclusion à laquelle parvient un modèle après avoir analysé des données, comme un filtre anti-spam décidant si un e-mail est du spam (et le déplace vers le dossier spam) ou non (laissez-le dedans. votre boîte de réception).

  • Deep Learning : un sous-ensemble d'apprentissage automatique impliquant des modèles appelés réseaux de neurones multicouches qui sont capables d'apprendre automatiquement des modèles et des représentations complexes à partir de grandes quantités de données

  • Données étiquetées : cela fait référence à chaque instance étant un ensemble de données étiquetés avec des résultats ou des catégories pour fournir des conseils clairs pour les modèles d’apprentissage automatique pendant la formation.

  • Apprentissage automatique : une branche de l'intelligence artificielle qui implique la formation d'algorithmes pour reconnaître des modèles et prendre des décisions basées sur des données sans avoir à être explicitement programmés pour chaque tâche spécifique

  • Modèle : Mathématiques entraînées sur un ensemble de données et des représentations informatiques capable de prédire et de classer de nouvelles données invisibles par des modèles d'apprentissage et des relations dans les données de formation précision du modèle

  • Langage naturel : la façon dont les humains communiquent entre eux, qu'ils soient parlés ou écrits, englobe les humains. Les complexités, nuances et règles inhérentes à l'expression du langage

  • Réseau de neurones : un modèle informatique inspiré de la structure du cerveau humain, composé de nœuds interconnectés, ou neurones, qui traitent et transmettent des signaux pour résoudre des tâches complexes telles que la reconnaissance de formes et la prise de décision en apprenant à partir de données

  • Surajustement : lorsqu'un modèle d'apprentissage automatique apprend les données d'entraînement de trop près, le rendant incapable de généraliser et de prédire avec précision les résultats sur des données invisibles.

  • Modèle : (dans le contexte de l'apprentissage automatique) ce que le modèle apprend à reconnaître. qui peut être utilisé pour faire des prédictions ou des décisions sur de nouvelles données invisibles

  • Prédiction : (en apprentissage automatique) utiliser un modèle entraîné pour estimer de nouvelles données en fonction de modèles appris pendant la phase d'entraînement, le processus permettant de trouver le résultat le plus probable ou valeur pour une instance invisible

  • Quantisation : (en apprentissage profond) le processus de réduction de la précision des poids et des activations dans le modèle à 2, 3 ou 4 chiffres, ce qui rend le modèle capable de fonctionner plus efficacement lors de l'inférence temps avec une perte de précision minimale.

  • Supervisé / Non supervisé : La différence entre l'apprentissage supervisé et l'apprentissage non supervisé est que dans la formation en apprentissage supervisé, il y a des données étiquetées (*) qui guident le modèle pour apprendre la cartographie de l'entrée à la sortie, tandis que l'apprentissage non supervisé implique de trouver dans les données Modèle ou structure sans étiquettes de résultat explicites.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Vous avez un jeu croisé?
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Bytedance Cutting lance le super abonnement SVIP : 499 yuans pour un abonnement annuel continu, offrant une variété de fonctions d'IA Bytedance Cutting lance le super abonnement SVIP : 499 yuans pour un abonnement annuel continu, offrant une variété de fonctions d'IA Jun 28, 2024 am 03:51 AM

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Assistant de codage d'IA augmenté par le contexte utilisant Rag et Sem-Rag Assistant de codage d'IA augmenté par le contexte utilisant Rag et Sem-Rag Jun 10, 2024 am 11:08 AM

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Le réglage fin peut-il vraiment permettre au LLM d'apprendre de nouvelles choses : l'introduction de nouvelles connaissances peut amener le modèle à produire davantage d'hallucinations Le réglage fin peut-il vraiment permettre au LLM d'apprendre de nouvelles choses : l'introduction de nouvelles connaissances peut amener le modèle à produire davantage d'hallucinations Jun 11, 2024 pm 03:57 PM

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

Sept questions d'entretien technique Cool GenAI et LLM Sept questions d'entretien technique Cool GenAI et LLM Jun 07, 2024 am 10:06 AM

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

Cinq écoles d'apprentissage automatique que vous ne connaissez pas Cinq écoles d'apprentissage automatique que vous ne connaissez pas Jun 05, 2024 pm 08:51 PM

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Jul 25, 2024 am 06:42 AM

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Les performances de SOTA, la méthode d'IA de prédiction d'affinité protéine-ligand multimodale de Xiamen, combinent pour la première fois des informations sur la surface moléculaire Les performances de SOTA, la méthode d'IA de prédiction d'affinité protéine-ligand multimodale de Xiamen, combinent pour la première fois des informations sur la surface moléculaire Jul 17, 2024 pm 06:37 PM

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

SK Hynix présentera de nouveaux produits liés à l'IA le 6 août : HBM3E à 12 couches, NAND à 321 hauteurs, etc. SK Hynix présentera de nouveaux produits liés à l'IA le 6 août : HBM3E à 12 couches, NAND à 321 hauteurs, etc. Aug 01, 2024 pm 09:40 PM

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière