


Forschung: Das Internet ist voll von minderwertigen maschinell übersetzten Inhalten, und beim Training großer Sprachmodelle muss man sich vor Datenfallen in Acht nehmen
Forscher des Cloud Computing Artificial Intelligence Laboratory von Amazon haben kürzlich herausgefunden, dass es im Web eine große Menge an Inhalten gibt, die durch maschinelle Übersetzung generiert werden, und dass die Qualität dieser Übersetzungen in mehrere Sprachen im Allgemeinen gering ist. Das Forschungsteam betonte die Bedeutung der Datenqualität und -herkunft beim Training großer Sprachmodelle. Dieses Ergebnis unterstreicht die Notwendigkeit, bei der Erstellung qualitativ hochwertiger Sprachmodelle mehr auf Datenqualität und Quellenauswahl zu achten.
Untersuchungen haben außerdem ergeben, dass maschinengenerierte Inhalte in Übersetzungen ressourcenarmer Sprachen weit verbreitet sind und einen großen Teil der Webinhalte ausmachen.
Diese Website hat festgestellt, dass das Forschungsteam eine riesige Ressource namens MWccMatrix entwickelt hat, um die Eigenschaften maschineller Übersetzungsinhalte besser zu verstehen. Die Ressource enthält 6,4 Milliarden einzigartige Sätze, die 90 Sprachen abdecken, und stellt Kombinationen von Sätzen bereit, die ineinander übersetzt werden, sogenannte Übersetzungstupel.
Diese Studie ergab, dass eine große Menge an Webinhalten in mehrere Sprachen übersetzt wird, oft durch maschinelle Übersetzung. Dieses Phänomen ist bei Übersetzungen aus Sprachen mit weniger Ressourcen weit verbreitet und macht einen großen Teil der Webinhalte in diesen Sprachen aus.
Forscher stellten außerdem eine Selektivitätsverzerrung bei Inhalten fest, die zu Zwecken wie Werbeeinnahmen in mehrere Sprachen übersetzt werden.
Basierend auf meinen Recherchen bin ich zu folgendem Schluss gekommen: „Die maschinelle Übersetzungstechnologie hat im letzten Jahrzehnt erhebliche Fortschritte gemacht, aber sie kann immer noch nicht das menschliche Qualitätsniveau erreichen. In den letzten vielen Jahren haben Menschen die damals verfügbare Maschine genutzt.“ Dem Web werden Übersetzungssysteme zur Übersetzung von Inhalten hinzugefügt, sodass die Qualität eines Großteils der maschinell übersetzten Inhalte im Web wahrscheinlich relativ niedrig ist und nicht den modernen Standards entspricht. Dies kann zu mehr „Halluzinationen“ im LLM-Modell führen Da die Auswahlverzerrung darauf hindeutet, dass selbst maschinelle Übersetzungsfehler nicht berücksichtigt werden, ist die Datenqualität möglicherweise auch für das LLM-Training von entscheidender Bedeutung, und hochwertige Korpora wie Bücher und Wikipedia-Artikel erfordern normalerweise ein mehrfaches Upsampling .“
Das obige ist der detaillierte Inhalt vonForschung: Das Internet ist voll von minderwertigen maschinell übersetzten Inhalten, und beim Training großer Sprachmodelle muss man sich vor Datenfallen in Acht nehmen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Übersetzer |. Bugatti Review |. Chonglou Dieser Artikel beschreibt, wie man die GroqLPU-Inferenz-Engine verwendet, um ultraschnelle Antworten in JanAI und VSCode zu generieren. Alle arbeiten daran, bessere große Sprachmodelle (LLMs) zu entwickeln, beispielsweise Groq, der sich auf die Infrastrukturseite der KI konzentriert. Die schnelle Reaktion dieser großen Modelle ist der Schlüssel, um sicherzustellen, dass diese großen Modelle schneller reagieren. In diesem Tutorial wird die GroqLPU-Parsing-Engine vorgestellt und erläutert, wie Sie mithilfe der API und JanAI lokal auf Ihrem Laptop darauf zugreifen können. In diesem Artikel wird es auch in VSCode integriert, um uns dabei zu helfen, Code zu generieren, Code umzugestalten, Dokumentation einzugeben und Testeinheiten zu generieren. In diesem Artikel erstellen wir kostenlos unseren eigenen Programmierassistenten für künstliche Intelligenz. Einführung in die GroqLPU-Inferenz-Engine Groq

Das Potenzial großer Sprachmodelle wird gefördert – eine hochpräzise Zeitreihenvorhersage kann ohne Training großer Sprachmodelle erreicht werden und übertrifft alle herkömmlichen Zeitreihenmodelle. Die Monash University, Ant und IBM Research haben gemeinsam ein allgemeines Framework entwickelt, das die Fähigkeit großer Sprachmodelle, Sequenzdaten über Modalitäten hinweg zu verarbeiten, erfolgreich förderte. Das Framework ist zu einer wichtigen technologischen Innovation geworden. Die Vorhersage von Zeitreihen ist für die Entscheidungsfindung in typischen komplexen Systemen wie Städten, Energie, Transport und Fernerkundung von Vorteil. Seitdem wird erwartet, dass große Modelle das Zeitreihen-/spatiotemporale Data-Mining revolutionieren werden. Das allgemeine Forschungsteam zum Reprogrammieren von Frameworks für große Sprachmodelle schlug ein allgemeines Framework vor, mit dem große Sprachmodelle einfach und ohne Schulung für die allgemeine Zeitreihenvorhersage verwendet werden können. Es werden hauptsächlich zwei Schlüsseltechnologien vorgeschlagen: Neuprogrammierung der Zeiteingabe; Zeit-

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

In diesem Artikel werden die Ergebnisse von „Local Deployment of Large Language Models in OpenHarmony“ auf der 2. OpenHarmony-Technologiekonferenz demonstriert. Open-Source-Adresse: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/. InferLLM/docs/hap_integrate.md. Die Implementierungsideen und -schritte bestehen darin, das leichtgewichtige LLM-Modellinferenz-Framework InferLLM auf das OpenHarmony-Standardsystem zu übertragen und ein Binärprodukt zu kompilieren, das auf OpenHarmony ausgeführt werden kann. InferLLM ist ein einfaches und effizientes L

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Große Sprachmodelle (LLMs) zeigen beeindruckende Leistungen beim Sprachverständnis und bei verschiedenen Argumentationsaufgaben. Ihre Rolle beim räumlichen Denken, einem Schlüsselaspekt der menschlichen Wahrnehmung, ist jedoch noch wenig erforscht. Menschen haben die Fähigkeit, durch einen Prozess, der als „geistiges Auge“ bekannt ist, mentale Bilder von unsichtbaren Objekten und Handlungen zu erzeugen, die es ermöglichen, sich die unsichtbare Welt vorzustellen. Inspiriert von dieser kognitiven Fähigkeit schlugen Forscher die „Visualisierung des Denkens“ (VoT) vor. VoT zielt darauf ab, das räumliche Denken von LLMs durch die Visualisierung ihrer Argumentationszeichen zu steuern und so nachfolgende Argumentationsschritte zu steuern. Forscher wenden VoT auf Multi-Hop-Aufgaben zum räumlichen Denken an, einschließlich Navigation in natürlicher Sprache und Sehvermögen

Die Transformer-Architektur ist seit der Veröffentlichung des Artikels „AttentionIsAllYouNeed“ im Jahr 2017 ein Eckpfeiler im Bereich der Verarbeitung natürlicher Sprache (NLP). Sein Design ist seit Jahren weitgehend unverändert geblieben, wobei das Jahr 2022 mit der Einführung von Rotary Position Encoding (RoPE) eine große Entwicklung auf diesem Gebiet markiert. Das Einbetten gedrehter Positionen ist die hochmoderne NLP-Positionseinbettungstechnik. Die meisten gängigen großen Sprachmodelle (wie Llama, Llama2, PaLM und CodeGen) verwenden es bereits. In diesem Artikel werfen wir einen detaillierten Blick darauf, was Rotationspositionskodierungen sind und wie sie die Vorteile der absoluten und relativen Positionseinbettungen geschickt kombinieren. Die Notwendigkeit einer Positionskodierung, um Ro zu verstehen

Das größte Risiko, dem die Technologie der künstlichen Intelligenz derzeit ausgesetzt ist, besteht darin, dass die Entwicklungs- und Anwendungsgeschwindigkeit von großen Sprachmodellen (LLM) und der generativen Technologie der künstlichen Intelligenz die Geschwindigkeit von Sicherheit und Governance bei weitem übertroffen hat. Die Nutzung generativer KI und großer Sprachmodellprodukte von Unternehmen wie OpenAI, Anthropic, Google und Microsoft nimmt exponentiell zu. Gleichzeitig nehmen auch Open-Source-Lösungen für große Sprachmodelle schnell zu. Open-Source-Communitys für künstliche Intelligenz wie HuggingFace bieten eine große Anzahl von Open-Source-Modellen, Datensätzen und KI-Anwendungen. Um die Entwicklung künstlicher Intelligenz voranzutreiben, entwickeln und stellen Branchenorganisationen wie OWASP, OpenSSF und CISA aktiv wichtige Ressourcen für die Sicherheit und Governance künstlicher Intelligenz bereit, beispielsweise OWASPAIExchange.
