Maison Périphériques technologiques IA Recherche : Internet regorge de contenus traduits automatiquement de mauvaise qualité et la formation de grands modèles de langage doit se méfier des pièges à données.

Recherche : Internet regorge de contenus traduits automatiquement de mauvaise qualité et la formation de grands modèles de langage doit se méfier des pièges à données.

Feb 04, 2024 pm 02:42 PM
大语言模型

Recherche : Internet regorge de contenus traduits automatiquement de mauvaise qualité et la formation de grands modèles de langage doit se méfier des pièges à données.

Des chercheurs du laboratoire d'intelligence artificielle Cloud Computing d'Amazon ont récemment découvert qu'il existe une grande quantité de contenu généré par la traduction automatique sur le Web et que la qualité de ces traductions dans plusieurs langues est généralement faible. L’équipe de recherche a souligné l’importance de la qualité et de la provenance des données lors de la formation de grands modèles linguistiques. Cette découverte souligne la nécessité d’accorder plus d’attention à la qualité des données et à la sélection des sources lors de la création de modèles linguistiques de haute qualité.

La recherche a également révélé que le contenu généré automatiquement est répandu dans les traductions de langues à faibles ressources et constitue une grande partie du contenu Web.

Ce site a remarqué que l'équipe de recherche a développé une énorme ressource appelée MWccMatrix pour mieux comprendre les caractéristiques du contenu de traduction automatique. La ressource contient 6,4 milliards de phrases uniques, couvrant 90 langues, et propose des combinaisons de phrases qui se traduisent les unes par les autres, appelées tuples de traduction.

Cette étude a révélé qu'une grande quantité de contenu Web est traduite dans plusieurs langues, souvent par traduction automatique. Ce phénomène est répandu dans les traductions à partir de langues disposant de moins de ressources et représente une grande partie du contenu Web dans ces langues.

Les chercheurs ont également remarqué un biais de sélectivité dans le contenu traduit en plusieurs langues à des fins telles que les revenus publicitaires.

Sur la base de mes recherches, je suis arrivé à la conclusion suivante : « La technologie de traduction automatique a fait des progrès significatifs au cours de la dernière décennie, mais elle ne peut toujours pas atteindre les niveaux de qualité humaine. Au cours des dernières années, les gens ont utilisé la machine alors disponible. des systèmes de traduction pour traduire le contenu sont ajoutés au Web, de sorte que la qualité d'une grande partie du contenu traduit automatiquement sur le Web est probablement relativement faible et ne répond pas aux normes modernes. Cela peut conduire à davantage d'« hallucinations » dans le modèle LLM. , et le biais de sélection indique que même les erreurs de traduction automatique ne sont pas prises en compte, la qualité des données peut également être inférieure. Pour la formation LLM, la qualité des données est cruciale et les corpus de haute qualité, tels que les livres et les articles Wikipédia, nécessitent généralement de multiples suréchantillonnages. .”

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Guide étape par étape pour utiliser Groq Llama 3 70B localement Guide étape par étape pour utiliser Groq Llama 3 70B localement Jun 10, 2024 am 09:16 AM

Traducteur | Bugatti Review | Chonglou Cet article décrit comment utiliser le moteur d'inférence GroqLPU pour générer des réponses ultra-rapides dans JanAI et VSCode. Tout le monde travaille à la création de meilleurs grands modèles de langage (LLM), tels que Groq, qui se concentre sur le côté infrastructure de l'IA. Une réponse rapide de ces grands modèles est essentielle pour garantir que ces grands modèles réagissent plus rapidement. Ce didacticiel présentera le moteur d'analyse GroqLPU et comment y accéder localement sur votre ordinateur portable à l'aide de l'API et de JanAI. Cet article l'intégrera également dans VSCode pour nous aider à générer du code, à refactoriser le code, à saisir la documentation et à générer des unités de test. Cet article créera gratuitement notre propre assistant de programmation d’intelligence artificielle. Introduction au moteur d'inférence GroqLPU Groq

Sept questions d'entretien technique Cool GenAI et LLM Sept questions d'entretien technique Cool GenAI et LLM Jun 07, 2024 am 10:06 AM

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

Les grands modèles sont également très puissants pour la prédiction de séries chronologiques ! L'équipe chinoise active les nouvelles capacités de LLM et surpasse les modèles traditionnels pour atteindre SOTA Les grands modèles sont également très puissants pour la prédiction de séries chronologiques ! L'équipe chinoise active les nouvelles capacités de LLM et surpasse les modèles traditionnels pour atteindre SOTA Apr 11, 2024 am 09:43 AM

Le potentiel des grands modèles de langage est stimulé : une prédiction de séries chronologiques de haute précision peut être obtenue sans formation de grands modèles de langage, surpassant ainsi tous les modèles de séries chronologiques traditionnels. L'Université Monash, Ant et IBM Research ont développé conjointement un cadre général qui a permis de promouvoir avec succès la capacité des grands modèles de langage à traiter les données de séquence selon différentes modalités. Le cadre est devenu une innovation technologique importante. La prédiction de séries chronologiques est bénéfique à la prise de décision dans des systèmes complexes typiques tels que les villes, l'énergie, les transports et la télédétection. Depuis lors, les grands modèles devraient révolutionner l’exploration de séries chronologiques et de données spatiotemporelles. L’équipe de recherche sur le cadre général de reprogrammation de grands modèles de langage a proposé un cadre général permettant d’utiliser facilement de grands modèles de langage pour la prédiction générale de séries chronologiques sans aucune formation. Deux technologies clés sont principalement proposées : la reprogrammation des entrées de synchronisation ; Temps-

Déployer de grands modèles de langage localement dans OpenHarmony Déployer de grands modèles de langage localement dans OpenHarmony Jun 07, 2024 am 10:02 AM

Cet article ouvrira en source les résultats du « Déploiement local de grands modèles de langage dans OpenHarmony » démontrés lors de la 2e conférence technologique OpenHarmony. Adresse : https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/. InferLLM/docs/hap_integrate.md. Les idées et les étapes de mise en œuvre consistent à transplanter le cadre d'inférence de modèle LLM léger InferLLM vers le système standard OpenHarmony et à compiler un produit binaire pouvant s'exécuter sur OpenHarmony. InferLLM est un L simple et efficace

Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Hongmeng Smart Travel S9 et conférence de lancement de nouveaux produits avec scénario complet, un certain nombre de nouveaux produits à succès ont été lancés ensemble Aug 08, 2024 am 07:02 AM

Cet après-midi, Hongmeng Zhixing a officiellement accueilli de nouvelles marques et de nouvelles voitures. Le 6 août, Huawei a organisé la conférence de lancement de nouveaux produits Hongmeng Smart Xingxing S9 et Huawei, réunissant la berline phare intelligente panoramique Xiangjie S9, le nouveau M7Pro et Huawei novaFlip, MatePad Pro 12,2 pouces, le nouveau MatePad Air, Huawei Bisheng With de nombreux nouveaux produits intelligents tous scénarios, notamment la série d'imprimantes laser X1, FreeBuds6i, WATCHFIT3 et l'écran intelligent S5Pro, des voyages intelligents, du bureau intelligent aux vêtements intelligents, Huawei continue de construire un écosystème intelligent complet pour offrir aux consommateurs une expérience intelligente du Internet de tout. Hongmeng Zhixing : Autonomisation approfondie pour promouvoir la modernisation de l'industrie automobile intelligente Huawei s'associe à ses partenaires de l'industrie automobile chinoise pour fournir

Stimuler la capacité de raisonnement spatial des grands modèles de langage : conseils de visualisation réfléchie Stimuler la capacité de raisonnement spatial des grands modèles de langage : conseils de visualisation réfléchie Apr 11, 2024 pm 03:10 PM

Les grands modèles de langage (LLM) démontrent des performances impressionnantes en matière de compréhension du langage et de diverses tâches de raisonnement. Cependant, leur rôle dans le raisonnement spatial, un aspect clé de la cognition humaine, reste peu étudié. Les humains ont la capacité de créer des images mentales d'objets et d'actions invisibles grâce à un processus connu sous le nom d'œil mental, ce qui permet d'imaginer le monde invisible. Inspirés par cette capacité cognitive, les chercheurs ont proposé la « visualisation de la pensée » (VoT). VoT vise à guider le raisonnement spatial des LLM en visualisant leurs signes de raisonnement, guidant ainsi les étapes de raisonnement ultérieures. Les chercheurs appliquent la VoT à des tâches de raisonnement spatial à plusieurs sauts, notamment la navigation en langage naturel et la vision.

Résumant 374 travaux connexes, l'équipe de Tao Dacheng, en collaboration avec l'Université de Hong Kong et l'UMD, a publié la dernière revue de la distillation des connaissances LLM. Résumant 374 travaux connexes, l'équipe de Tao Dacheng, en collaboration avec l'Université de Hong Kong et l'UMD, a publié la dernière revue de la distillation des connaissances LLM. Mar 18, 2024 pm 07:49 PM

Les grands modèles linguistiques (LLM) se sont développés rapidement au cours des deux dernières années, et certains modèles et produits phénoménaux ont émergé, tels que GPT-4, Gemini, Claude, etc., mais la plupart d'entre eux sont de source fermée. Il existe un écart important entre la plupart des LLM open source actuellement accessibles à la communauté des chercheurs et les LLM à source fermée. Par conséquent, l'amélioration des capacités des LLM open source et d'autres petits modèles pour réduire l'écart entre eux et les grands modèles à source fermée est devenue un point chaud de la recherche. dans ce champ. Les puissantes capacités du LLM, en particulier du LLM à source fermée, permettent aux chercheurs scientifiques et aux praticiens industriels d'utiliser les résultats et les connaissances de ces grands modèles lors de la formation de leurs propres modèles. Ce processus est essentiellement une distillation des connaissances (Knowledge, Dist

Explication détaillée du codage de position de rotation RoPE couramment utilisé dans les grands modèles de langage : pourquoi est-il meilleur que le codage de position absolue ou relative ? Explication détaillée du codage de position de rotation RoPE couramment utilisé dans les grands modèles de langage : pourquoi est-il meilleur que le codage de position absolue ou relative ? Apr 01, 2024 pm 08:19 PM

L'architecture Transformer est la pierre angulaire du domaine du traitement du langage naturel (NLP) depuis l'article « AttentionIsAllYouNeed » publié en 2017. Sa conception est restée pratiquement inchangée depuis des années, 2022 marquant un développement majeur dans le domaine avec l'introduction du Rotary Position Encoding (RoPE). L'intégration de position avec rotation est la technique d'intégration de position PNL de pointe. Les modèles linguistiques à grande échelle les plus populaires (tels que Llama, Llama2, PaLM et CodeGen) l'utilisent déjà. Dans cet article, nous examinerons en profondeur ce que sont les codages de position de rotation et comment ils combinent parfaitement les avantages des intégrations de position absolue et relative. La nécessité d'un codage positionnel pour comprendre Ro

See all articles