


Alibaba Cloud startet umfassenden Transformationsplan und führt das große Sprachmodell „Tongyi Qianwen' ein
Laut Nachrichten vom 23. Mai plant Alibaba Cloud, eine Tochtergesellschaft der Alibaba Group, eine Runde organisatorischer und personeller Optimierungen durchzuführen, um seine Geschäftsstrategie, Organisation und Abläufe weiter zu verbessern. Die Nachricht kommt fünf Tage bevor Zhang Yong, Vorstandsvorsitzender der Alibaba Group und CEO von Alibaba Cloud Intelligence, ankündigte, dass Alibaba Cloud vollständig aus der Alibaba Group ausgegliedert und seine Börsennotierung in den nächsten 12 Monaten abgeschlossen wird.
Mehrere Quellen sagten, dass dieser Optimierungsplan Mitte Mai begonnen habe und die Alibaba Group erst letzten Monat die Leistung des letzten Jahres bekannt gegeben habe. Obwohl die Nachricht über die Entlassungen von 7 % bei Alibaba Cloud viel Aufmerksamkeit erregt hat, hat Alibaba Cloud geantwortet, dass es sich hierbei um eine routinemäßige Optimierung von Organisationspositionen und Personal handelt. Laut einem Unternehmensinsider beträgt der Entlassungsentschädigungsstandard des Unternehmens „N+1+1“, und nicht genommener Jahresurlaub und Begleiturlaub können in Bargeld umgewandelt werden.
Organisation und Personaloptimierung werden jedes Jahr durchgeführt, und Alibaba Cloud als wichtiger Geschäftsbereich der Alibaba Group bildet da keine Ausnahme. Diese Optimierung wird als Schritt zur weiteren Stärkung der Geschäftsstrategie und zur Verbesserung der organisatorischen Effizienz angesehen. Seit Zhang Yong im Dezember letzten Jahres Alibaba Cloud übernommen hat, hat er eine Reihe wichtiger Maßnahmen ergriffen, darunter die größte Preissenkung bei Alibaba Cloud-Produkten in der Geschichte. Ziel dieser Preissenkung ist es, die Kosten für Cloud-Dienste zu senken und den Marktanteil auszubauen.
Laut IDC-Daten war Alibaba Cloud schon immer führend auf dem heimischen Public-Cloud-Markt, doch im zweiten Halbjahr 2022 sank sein Marktanteil im Vergleich zum Vorjahreszeitraum um 4,8 %. Gleichzeitig war die Gesamtwachstumsrate des Public-Cloud-Marktes deutlich langsamer und die Umsatzwachstumsrate ist im Jahresvergleich um fast 24 Prozentpunkte gesunken. Dies könnte ein Hintergrundgrund für die Optimierung von Alibaba Cloud sein.
Nachdem die Auswirkungen segmentübergreifender Transaktionen ausgeglichen wurden, sank der Cloud-Geschäftsumsatz der Alibaba Group im ersten Quartal dieses Jahres im Jahresvergleich um 2 % auf einen Umsatz von 18,582 Milliarden Yuan. Als Reaktion auf diese Situation hat Alibaba Cloud im April das neueste große Sprachmodell „Tongyi Qianwen“ auf den Markt gebracht und plant, alle Produkte umfassend zu transformieren, um sie an die Entwicklung des Zeitalters der künstlichen Intelligenz anzupassen.
Zusammenfassend lässt sich sagen, dass der Organisations- und Personaloptimierungsplan von Alibaba Cloud darauf abzielt, die Geschäftsstrategien weiter zu optimieren, die organisatorische Effizienz zu verbessern und sich an Veränderungen im aktuellen Public-Cloud-Markt anzupassen. Alibaba Cloud wird weiterhin bestrebt sein, seine führende Position im Bereich Cloud Computing zu behaupten, um Benutzern bessere Cloud-Dienste bereitzustellen.
Das obige ist der detaillierte Inhalt vonAlibaba Cloud startet umfassenden Transformationsplan und führt das große Sprachmodell „Tongyi Qianwen' ein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Laut Nachrichten dieser Website vom 5. August gab Alibaba Cloud bekannt, dass die Yunqi-Konferenz 2024 vom 19. bis 21. September in der Stadt Yunqi in Hangzhou stattfinden wird. Es wird ein dreitägiges Hauptforum, 400 Unterforen und parallele Themen geben. sowie knapp vierzehntausend Quadratmeter Ausstellungsfläche. Die Yunqi-Konferenz ist kostenlos und für die Öffentlichkeit zugänglich. Ab sofort kann die Öffentlichkeit kostenlose Tickets über die offizielle Website der Yunqi-Konferenz erwerben. Die Ticket-Website ist auf dieser Website angehängt. https://yunqi.aliyun.com/2024 /ticket-list Berichten zufolge entstand die Yunqi-Konferenz im Jahr 2009 und hieß ursprünglich „First China Website Development Forum“. Im Jahr 2015 entwickelte sie sich zur Alibaba Cloud Developer Conference , wurde sie offiziell in „Yunqi-Konferenz“ umbenannt und verlief weiterhin erfolgreich

Sprachmodelle basieren auf Text, der normalerweise in Form von Zeichenfolgen vorliegt. Da die Eingabe in das Modell jedoch nur Zahlen sein kann, muss der Text in eine numerische Form umgewandelt werden. Die Tokenisierung ist eine grundlegende Aufgabe der Verarbeitung natürlicher Sprache. Sie kann eine fortlaufende Textsequenz (z. B. Sätze, Absätze usw.) entsprechend den spezifischen Anforderungen in eine Zeichenfolge (z. B. Wörter, Phrasen, Zeichen, Satzzeichen usw.) unterteilen. Die darin enthaltenen Einheiten werden als Token oder Wort bezeichnet. Gemäß dem in der Abbildung unten gezeigten spezifischen Prozess werden die Textsätze zunächst in Einheiten unterteilt, dann werden die einzelnen Elemente digitalisiert (in Vektoren abgebildet), dann werden diese Vektoren zur Codierung in das Modell eingegeben und schließlich an nachgelagerte Aufgaben ausgegeben erhalten Sie weiterhin das Endergebnis. Die Textsegmentierung kann entsprechend der Granularität der Textsegmentierung in Toke unterteilt werden.

Alibaba Cloud hat heute ein Open-Source-Projekt namens Qwen-14B angekündigt, das ein parametrisches Modell und ein Konversationsmodell umfasst. Dieses Open-Source-Projekt ermöglicht die kostenlose kommerzielle Nutzung: Alibaba Cloud hat zuvor ein Parametermodell Qwen-7B im Wert von 7 Milliarden US-Dollar veröffentlicht. Nach Angaben von Alibaba hat das Downloadvolumen die 1-Millionen-Marke überschritten Cloud, Qwen -14B übertrifft Modelle gleicher Größe in mehreren maßgeblichen Bewertungen, und einige Indikatoren liegen sogar nahe an Llama2-70B. Berichten zufolge handelt es sich bei Qwen-14B um ein leistungsstarkes Open-Source-Modell, das mehrere Sprachen unterstützt. Seine gesamten Trainingsdaten umfassen mehr als 3 Billionen Token, verfügen über stärkere Denk-, Erkenntnis-, Planungs- und Gedächtnisfähigkeiten und unterstützen ein maximales Kontextfenster von 8.000

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

Zusammenstellung|Produziert von Ich fange an, serverloses Cloud Computing zu vermissen. Ihre Anwendungen reichen von der Verbesserung der Konversations-KI bis hin zur Bereitstellung komplexer Analyselösungen für verschiedene Branchen und vielen anderen Funktionen. Viele Unternehmen setzen diese Modelle auf Cloud-Plattformen ein, da öffentliche Cloud-Anbieter bereits ein fertiges Ökosystem bereitstellen und dies der Weg des geringsten Widerstands ist. Allerdings ist es nicht billig. Die Cloud bietet darüber hinaus weitere Vorteile wie Skalierbarkeit, Effizienz und erweiterte Rechenfunktionen (GPUs auf Anfrage verfügbar). Es gibt einige wenig bekannte Aspekte der Bereitstellung von LLM auf öffentlichen Cloud-Plattformen

Im Jahr 2018 veröffentlichte Google BERT. Nach seiner Veröffentlichung übertraf es die State-of-the-Art-Ergebnisse (Sota) von 11 NLP-Aufgaben und stellte damit einen neuen Meilenstein in der NLP-Welt dar In der Abbildung unten ist der Trainingsprozess des BERT-Modells dargestellt, rechts der Feinabstimmungsprozess für bestimmte Aufgaben. Unter anderem dient die Feinabstimmungsphase der Feinabstimmung, wenn sie anschließend in einigen nachgelagerten Aufgaben verwendet wird, wie z. B. Textklassifizierung, Wortartkennzeichnung, Frage- und Antwortsysteme usw. BERT kann auf verschiedene Arten feinabgestimmt werden Aufgaben ohne Anpassung der Struktur. Durch das Aufgabendesign „vorab trainiertes Sprachmodell + Feinabstimmung der nachgelagerten Aufgabe“ werden leistungsstarke Modelleffekte erzielt. Seitdem ist „Sprachmodell vor dem Training + Feinabstimmung der nachgelagerten Aufgabe“ zum Mainstream-Training im NLP-Bereich geworden.

Zu den Caching-Mechanismen von Alibaba Cloud gehören Alibaba Cloud Redis, Alibaba Cloud Memcache, der verteilte Cache-Dienst DSC, Alibaba Cloud Table Store, CDN usw. Ausführliche Einführung: 1. Alibaba Cloud Redis: Eine von Alibaba Cloud bereitgestellte verteilte Speicherdatenbank, die schnelles Lesen und Schreiben sowie Datenpersistenz unterstützt. Durch die Speicherung von Daten im Speicher können Datenzugriff mit geringer Latenz und hohe Parallelitätsverarbeitungsfunktionen bereitgestellt werden. 2. Alibaba Cloud Memcache: das von Alibaba Cloud usw. bereitgestellte Cache-System.

Da Sprachmodelle in einem noch nie dagewesenen Ausmaß skaliert werden, wird eine umfassende Feinabstimmung für nachgelagerte Aufgaben unerschwinglich teuer. Um dieses Problem zu lösen, begannen Forscher, der PEFT-Methode Aufmerksamkeit zu schenken und sie zu übernehmen. Die Hauptidee der PEFT-Methode besteht darin, den Umfang der Feinabstimmung auf einen kleinen Satz von Parametern zu beschränken, um die Rechenkosten zu senken und gleichzeitig eine hochmoderne Leistung bei Aufgaben zum Verstehen natürlicher Sprache zu erzielen. Auf diese Weise können Forscher Rechenressourcen einsparen und gleichzeitig eine hohe Leistung aufrechterhalten, wodurch neue Forschungsschwerpunkte auf dem Gebiet der Verarbeitung natürlicher Sprache entstehen. RoSA ist eine neue PEFT-Technik, die durch Experimente mit einer Reihe von Benchmarks gezeigt hat, dass sie frühere Low-Rank-Adaptive- (LoRA) und reine Sparse-Feinabstimmungsmethoden mit demselben Parameterbudget übertrifft. Dieser Artikel wird näher darauf eingehen
