


Il n'est pas trop tard pour se méfier de l'intelligence artificielle
Nous ne pouvons pas spécifier des cibles de manière complètement correcte, ni prédire ou prévenir les dégâts que causeront à l’échelle mondiale des machines surpuissantes poursuivant de mauvais objectifs. Nous avons déjà vu des exemples d’algorithmes de réseaux sociaux exploitant les préférences des gens pour optimiser les clics, avec des conséquences désastreuses pour les institutions démocratiques.
Nick Bostrom explique comment prendre des risques au sérieux dans son livre de 2014 Superintelligence: Paths, Danger, Strategies Claim. Le magazine "The Economist" a examiné le livre et a conclu : "L'introduction d'une deuxième espèce intelligente sur terre a des conséquences considérables et mérite notre profonde réflexion.
Bien sûr, il y a tellement de choses en jeu." Face à cette situation, les sages réfléchissent déjà beaucoup : s'engager dans des débats sérieux, peser le pour et le contre, chercher des solutions, trouver des failles dans les solutions, etc. Pour autant que je sache, ces efforts ont eu peu de succès et se sont heurtés à toutes sortes de dénégations.
Les arguments de certains chercheurs célèbres en intelligence artificielle ne valent guère la peine d’être réfutés. J'ai vu des dizaines d'affirmations dans des articles ou entendues lors de conférences, en voici quelques-unes :
Les calculatrices électroniques sont sans égal en arithmétique, et les calculatrices ne conquièrent pas le monde, il n'y a donc aucune raison de s'inquiéter de l'intelligence artificielle surhumaine ;
Il n’y a eu aucun exemple dans l’histoire de machines tuant des millions de personnes, et étant donné cela, cela n’arrivera pas à l’avenir.
Il n’existe pas de quantités physiques infinies dans l’univers, et l’intelligence ne fait pas exception, il n’y a donc pas lieu de trop s’inquiéter de la superintelligence.
La réponse la plus courante des chercheurs en intelligence artificielle est peut-être : « Nous pouvons la désactiver. » Alan Turing lui-même a évoqué cette possibilité, mais il n'était pas très sûr de lui :
Si une machine peut penser, elle pensera peut-être de manière plus globale que celle-ci. nous le faisons, alors où serons-nous ? Même si les machines peuvent être amenées à se plier à nous, par exemple en s'arrêtant à des moments critiques, nous, en tant qu'espèce, devrions avoir honte de nous-mêmes... Ce nouveau danger... ne manquera pas de nous inquiéter.
Éteindre la machine ne fonctionnera pas. La raison est très simple. L'entité super intelligente envisagera certainement cette possibilité et prendra des mesures pour l'empêcher. Il ne le fait pas parce qu'il « veut survivre », mais parce qu'il poursuit les objectifs que nous lui avons fixés et sait qu'il échouera s'il est arrêté. Nous ne pouvons pas simplement « l'éteindre », tout comme nous ne pouvons pas battre Alpha Go simplement en plaçant les pièces sur les cases correspondantes du plateau.
D’autres formes de déni conduisent à des idées plus complexes, comme celle selon laquelle l’intelligence a de multiples facettes. Par exemple, une personne peut avoir une intelligence spatiale plus élevée qu’une autre mais moins d’intelligence sociale, nous ne pouvons donc pas toutes les classer par ordre strict d’intelligence. C’est encore plus vrai pour les machines : inutile de comparer « l’intelligence » d’Alpha Go à celle du moteur de recherche Google.
Kevin Kelly, rédacteur en chef fondateur du magazine Wired et commentateur technologique perspicace, va encore plus loin. "L'intelligence n'est pas une dimension unique, donc "plus intelligent que l'humain" est un concept dénué de sens", a-t-il écrit dans son livre "Le mythe d'une IA surhumaine". À propos de la superintelligence Mes inquiétudes ont été balayées par un poteau.
Maintenant, il existe une réponse évidente : les machines peuvent surpasser les humains dans toutes les dimensions pertinentes de l’intelligence. Dans ce cas, même selon les normes strictes de Kelly, le robot serait plus intelligent qu'un humain. Mais cette hypothèse plutôt forte n’est pas nécessaire pour réfuter l’argument de Kelly.
Prenons l'exemple des chimpanzés. Les chimpanzés pourraient avoir une meilleure mémoire à court terme que les humains, même dans les tâches dans lesquelles les humains excellent, comme le rappel de séquences de nombres. La mémoire à court terme est une dimension importante de l'intelligence. Selon l’argument de Kelly, les humains ne sont pas plus intelligents que les chimpanzés ; en fait, il dirait que « plus intelligents que les chimpanzés » est un concept dénué de sens.
C'est une maigre consolation pour les chimpanzés et autres espèces qui ne survivent que grâce à la tolérance humaine, et pour toutes les espèces que les humains ont détruites. Encore une fois, cela n’est guère rassurant pour quiconque pourrait craindre d’être anéanti par les machines.
Certaines personnes pensent que la super intelligence est irréalisable, donc le risque de super intelligence n'existe plus. Ces affirmations ne sont pas nouvelles, mais il est surprenant que les chercheurs en IA eux-mêmes affirment désormais qu’une telle intelligence artificielle est impossible. Par exemple, l'important rapport « Intelligence artificielle et vie en 2030 » de l'organisation AI100 déclare : « Contrairement aux scènes de films, les robots surhumains n'apparaîtront pas et ne pourront pas apparaître dans la réalité dans le futur
. »Pour autant que je sache, c'est la première fois qu'un chercheur sérieux en intelligence artificielle déclare publiquement que l'intelligence artificielle de niveau humain ou surhumain est impossible, et cela se produit à une époque de développement rapide de la recherche sur l'intelligence artificielle, au cours de laquelle un obstacle après qu'un autre ait été surmonté. Ce serait comme si un groupe d’éminents biologistes du cancer annonçaient qu’ils nous trompaient depuis le début : ils savaient depuis le début qu’il n’y aurait jamais de remède contre le cancer.
Qu’est-ce qui a motivé ce changement majeur ? Aucun argument ni preuve n'a été fourni dans le rapport. (En effet, quelle preuve existe-t-il qu’il est physiquement impossible d’avoir un meilleur arrangement d’atomes que le cerveau humain ?) Je pense que la raison principale est le tribalisme – une défense contre ce qui pourrait être une « attaque » contre l’intelligence artificielle. Cependant, considérer une IA super intelligente comme quelque chose qui pourrait constituer une attaque contre l’IA semble un peu étrange, et défendre une IA en affirmant qu’elle n’atteindra jamais ses objectifs semble encore plus absurde. Nous ne pouvons pas garantir que de futures catastrophes ne se produiront pas en pariant sur les limites de la créativité humaine.
À proprement parler, l’intelligence artificielle surhumaine n’est pas impossible, alors ne faut-il pas s’inquiéter prématurément de ses risques ? L'informaticien Andrew Ng estime que cela revient à s'inquiéter de la "surpopulation sur Mars". Les risques à long terme restent néanmoins préoccupants. Le moment où il faut s’inquiéter d’un problème potentiellement grave impliquant des humains dépend non seulement du moment où le problème survient, mais également du temps nécessaire pour préparer et mettre en œuvre une solution.
Par exemple, pour détecter un astéroïde qui doit entrer en collision avec la Terre en 2069, attendrait-il 2068 pour commencer à travailler sur une solution ? Bien sûr que non! L’humanité mettra en place des projets d’urgence mondiaux pour trouver des moyens de faire face aux menaces, car nous n’avons aucun moyen de savoir à l’avance combien de temps nous aurons besoin.
Le point de vue de Ng Enda donne également le sentiment qu’il nous est impossible de transférer des milliards de personnes sur Mars. Cette analogie est fausse. Nous investissons d’énormes quantités de ressources scientifiques et technologiques dans la création de systèmes d’IA plus puissants, sans nous soucier de ce qui se passera si nous réussissons. Nous pouvons faire une analogie plus appropriée : planifier le déplacement d’humains vers Mars sans tenir compte des problèmes respiratoires et alimentaires après l’arrivée. Certains pourraient penser que ce plan n’est pas judicieux.
Une autre façon d’éviter les problèmes potentiels est d’affirmer que les inquiétudes concernant le risque proviennent de l’ignorance. Par exemple, Oren Etzioni, PDG de l'Institut Allen pour l'intelligence artificielle, a accusé Elon Musk et Stephen Hawking d'être des luddites qui ont attiré l'attention sur les menaces potentielles de l'IA et ceux qui résistent à l'impulsion aveugle de la nouveauté :
Every. l’innovation technologique émergente fait peur aux gens. Depuis les tisserands qui jetaient des chaussures dans les métiers à tisser à l’aube de l’ère industrielle jusqu’à la peur actuelle des robots tueurs, nous nous demandons quel impact les nouvelles technologies auront sur notre estime de nous-mêmes et sur nos moyens de subsistance. Quand on ne sait rien, on panique.
Même si vous prenez cet argument fallacieux classique au pied de la lettre, il ne tient pas la route. Hawking n’est pas étranger au raisonnement scientifique et Musk a supervisé et investi dans plusieurs projets de recherche sur l’intelligence artificielle. Il est encore plus incompétent de penser que Bill Gates, I.J. Good, Marvin Minsky, Alan Turing et Norbert Wiener, qui ont exprimé leurs inquiétudes, ne sont plus qualifiés pour discuter de l'intelligence artificielle.
Il est également complètement faux d'accuser le luddisme. C'est comme si quelqu'un accusait les ingénieurs nucléaires d'être des Luddites lorsqu'ils soulignent la nécessité de contrôler les réactions de fission. Autrement dit, évoquer les risques de l’IA revient à nier ses avantages potentiels. Prenons l'exemple d'Oren Etzioni :
Les prévisions pessimistes ne prennent souvent pas en compte les avantages potentiels de l'intelligence artificielle dans la prévention des accidents médicaux et la réduction des accidents de voiture.
Récemment, le PDG de Facebook, Mark Zuckerberg, a eu un échange médiatique avec Elon Musk :
S'opposer à l'intelligence artificielle, c'est s'opposer à des voitures plus sûres qui ne provoqueront pas d'accidents, et s'opposer à un diagnostic plus précis de l'état des patients.
L’idée selon laquelle quiconque évoque des risques est « anti-IA » est bizarre. (Les ingénieurs en sûreté nucléaire sont-ils « contre l’électricité » ?) Qui plus est, tout l’argument est précisément à contre-courant, pour deux raisons. Premièrement, s’il n’y avait aucun avantage potentiel, il n’y aurait aucune incitation à la recherche sur l’IA et aux dangers que représente l’IA à l’échelle humaine, et nous n’en discuterions pas. Deuxièmement, si le risque ne peut être atténué avec succès, il n’y aura aucun avantage.
Les événements catastrophiques de Three Mile Island en 1979, de Tchernobyl en 1986 et de Fukushima au Japon en 2011 ont considérablement réduit les bénéfices potentiels de l'énergie nucléaire. Ces catastrophes nucléaires ont sévèrement limité le développement de l'industrie nucléaire. L'Italie a renoncé à l'énergie nucléaire en 1990, et la Belgique, l'Allemagne, l'Espagne et la Suisse ont déjà annoncé qu'elles abandonnaient leurs projets en matière d'énergie nucléaire. De 1991 à 2010, la nouvelle capacité nucléaire nette ajoutée chaque année représentait environ 1/10 de ce qu’elle était dans les années précédant l’accident de Tchernobyl.
Étrangement, avec ces événements comme avertissement, le célèbre scientifique cognitif Steven Pinker estime toujours que les gens ne devraient pas attirer l'attention sur les risques de l'intelligence artificielle car la « culture de sécurité des sociétés avancées » garantira qu'ils soient éliminés. Tous les risques importants de l'IA. Même en ignorant Tchernobyl, Fukushima et le réchauffement climatique incontrôlable provoqué par notre culture avancée de sécurité, l’argument de Pinker passe complètement à côté de l’essentiel. Une culture de sécurité fonctionnelle implique de signaler les modes de défaillance potentiels et de trouver des moyens de les prévenir, et le modèle standard d'IA est celui des modes de défaillance.
Pinker estime également que le comportement problématique de l'IA découle de la définition de types d'objectifs spécifiques ; si ceux-ci ne sont pas pris en compte, il n'y aura aucun problème :
Les projets dystopiques d'IA projettent une mentalité machiste étroite sur le concept d'intelligence. Ils croient que les robots dotés d’une intelligence surhumaine auront des objectifs tels que renverser leurs maîtres ou conquérir le monde.
Yann LeCun, pionnier du deep learning et responsable de la recherche sur l'intelligence artificielle chez Facebook, cite souvent le même point de vue en minimisant les risques de l'intelligence artificielle :
Nous n'avons pas besoin de permettre à l'intelligence artificielle de se protéger. instincts, jalousie, etc... …L'IA ne créera pas d'« émotions » destructrices à moins que nous y incorporions ces émotions.
Ceux qui pensent que ce risque est négligeable n’expliquent pas pourquoi la super intelligence artificielle doit être sous contrôle humain.
En fait, peu importe que nous ayons des « émotions » ou des « désirs » intégrés (comme l’auto-préservation, l’acquisition de ressources, la découverte de connaissances ou, dans les cas extrêmes, la domination du monde). Les machines généreront ces émotions de toute façon, tout comme les sous-objectifs des objectifs pour lesquels nous les construisons, quel que soit le sexe. Comme le révèle la perspective « éteindre la machine », la fin de vie n’est pas en soi une mauvaise chose pour une machine. Néanmoins, l’interruption de la vie doit être évitée, car une fois terminée, ils auront plus de mal à atteindre leurs objectifs.
Une variante courante de l’argument « éviter de fixer des objectifs » est qu’un système suffisamment intelligent fixera inévitablement les « bons » objectifs par lui-même grâce à son intelligence. Le philosophe du XVIIIe siècle David Hume a réfuté ce point de vue dans A Treatise of Human Nature. Dans son livre "Superintelligence" (Superintelligence), Nick Bostrom considère le point de vue de Hume comme une proposition orthogonale :
L'intelligence est orthogonale au but ultime : n'importe quel niveau d'intelligence peut être plus ou moins intégré à n'importe quel objectif final.
Par exemple, la destination d'une voiture autonome peut être n'importe quel endroit désigné ; rendre la voiture plus autonome ne signifie pas qu'elle refusera automatiquement de se rendre à des adresses qui nécessitent des calculs mathématiques établis.
De même, il n'est pas difficile d'imaginer qu'un système intelligent général puisse se voir attribuer plus ou moins d'objectifs, notamment maximiser le nombre de trombones ou le nombre de chiffres dans le rapport pi connu. C'est ainsi que fonctionnent les systèmes d'apprentissage par renforcement et autres optimiseurs de récompense : l'algorithme est complètement général et peut accepter n'importe quel signal de récompense. Pour les ingénieurs et informaticiens travaillant dans le modèle standard, la proposition d’orthogonalité est simplement une évidence.
Le célèbre expert en robotique Rodney Brooks a clairement critiqué la thèse de l’orthogonalité de Bostrom. Il a affirmé qu’un programme « ne peut pas être assez intelligent pour inventer des moyens de renverser la société humaine afin d’atteindre ses objectifs sans comprendre comment cela cause des problèmes aux humains ».
Cependant, étant donné la définition du problème donnée par Bruske, une telle procédure est non seulement possible, mais en fait inévitable. Bruske estime que les meilleures pratiques des machines pour « atteindre les objectifs fixés par l’homme » causent des problèmes aux humains. On peut voir que ces problèmes reflètent la négligence des êtres humains à l'égard de ce qui leur est précieux lorsqu'ils fixent des objectifs. La meilleure solution exécutée par une machine est susceptible de causer des problèmes aux humains, et la machine en est probablement consciente, mais ce n'est évidemment pas son affaire que la machine ne considère pas ces problèmes comme problématiques.
En conclusion, les « sceptiques » qui croient que les risques posés par l’IA sont minimes n’expliquent pas pourquoi les systèmes de super IA doivent être sous contrôle humain ; ils n’essaient même pas d’expliquer pourquoi les systèmes de super IA ne seront jamais développés.
Le domaine de l'intelligence artificielle doit prendre des risques et faire de son mieux pour les réduire, plutôt que de continuer à tomber dans la confrontation et la calomnie et à déterrer à plusieurs reprises des arguments peu fiables. À notre connaissance, ces risques ne sont ni insignifiants ni insurmontables. La première étape consiste à reconnaître que le modèle standard doit être remplacé et que le système d’IA optimise un objectif fixé. C'est une mauvaise ingénierie. Nous devons faire beaucoup de travail pour remodeler et reconstruire les fondements de l’intelligence artificielle.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière
