Heim Technologie-Peripheriegeräte IT Industrie Alibaba Cloud startet umfassenden Transformationsplan und führt das große Sprachmodell „Tongyi Qianwen' ein

Alibaba Cloud startet umfassenden Transformationsplan und führt das große Sprachmodell „Tongyi Qianwen' ein

May 26, 2023 am 08:53 AM
阿里云 语言模型 改造计划

Laut Nachrichten vom 23. Mai plant Alibaba Cloud, eine Tochtergesellschaft der Alibaba Group, eine Runde organisatorischer und personeller Optimierungen durchzuführen, um seine Geschäftsstrategie, Organisation und Abläufe weiter zu verbessern. Die Nachricht kommt fünf Tage bevor Zhang Yong, Vorstandsvorsitzender der Alibaba Group und CEO von Alibaba Cloud Intelligence, ankündigte, dass Alibaba Cloud vollständig aus der Alibaba Group ausgegliedert und seine Börsennotierung in den nächsten 12 Monaten abgeschlossen wird.

Mehrere Quellen sagten, dass dieser Optimierungsplan Mitte Mai begonnen habe und die Alibaba Group erst letzten Monat die Leistung des letzten Jahres bekannt gegeben habe. Obwohl die Nachricht über die Entlassungen von 7 % bei Alibaba Cloud viel Aufmerksamkeit erregt hat, hat Alibaba Cloud geantwortet, dass es sich hierbei um eine routinemäßige Optimierung von Organisationspositionen und Personal handelt. Laut einem Unternehmensinsider beträgt der Entlassungsentschädigungsstandard des Unternehmens „N+1+1“, und nicht genommener Jahresurlaub und Begleiturlaub können in Bargeld umgewandelt werden.

Organisation und Personaloptimierung werden jedes Jahr durchgeführt, und Alibaba Cloud als wichtiger Geschäftsbereich der Alibaba Group bildet da keine Ausnahme. Diese Optimierung wird als Schritt zur weiteren Stärkung der Geschäftsstrategie und zur Verbesserung der organisatorischen Effizienz angesehen. Seit Zhang Yong im Dezember letzten Jahres Alibaba Cloud übernommen hat, hat er eine Reihe wichtiger Maßnahmen ergriffen, darunter die größte Preissenkung bei Alibaba Cloud-Produkten in der Geschichte. Ziel dieser Preissenkung ist es, die Kosten für Cloud-Dienste zu senken und den Marktanteil auszubauen.

Laut IDC-Daten war Alibaba Cloud schon immer führend auf dem heimischen Public-Cloud-Markt, doch im zweiten Halbjahr 2022 sank sein Marktanteil im Vergleich zum Vorjahreszeitraum um 4,8 %. Gleichzeitig war die Gesamtwachstumsrate des Public-Cloud-Marktes deutlich langsamer und die Umsatzwachstumsrate ist im Jahresvergleich um fast 24 Prozentpunkte gesunken. Dies könnte ein Hintergrundgrund für die Optimierung von Alibaba Cloud sein.

Nachdem die Auswirkungen segmentübergreifender Transaktionen ausgeglichen wurden, sank der Cloud-Geschäftsumsatz der Alibaba Group im ersten Quartal dieses Jahres im Jahresvergleich um 2 % auf einen Umsatz von 18,582 Milliarden Yuan. Als Reaktion auf diese Situation hat Alibaba Cloud im April das neueste große Sprachmodell „Tongyi Qianwen“ auf den Markt gebracht und plant, alle Produkte umfassend zu transformieren, um sie an die Entwicklung des Zeitalters der künstlichen Intelligenz anzupassen.

Zusammenfassend lässt sich sagen, dass der Organisations- und Personaloptimierungsplan von Alibaba Cloud darauf abzielt, die Geschäftsstrategien weiter zu optimieren, die organisatorische Effizienz zu verbessern und sich an Veränderungen im aktuellen Public-Cloud-Markt anzupassen. Alibaba Cloud wird weiterhin bestrebt sein, seine führende Position im Bereich Cloud Computing zu behaupten, um Benutzern bessere Cloud-Dienste bereitzustellen.

Das obige ist der detaillierte Inhalt vonAlibaba Cloud startet umfassenden Transformationsplan und führt das große Sprachmodell „Tongyi Qianwen' ein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Alibaba Cloud gab bekannt, dass die Yunqi-Konferenz 2024 vom 19. bis 21. September in Hangzhou stattfinden wird. Kostenlose Anmeldung für kostenlose Tickets Alibaba Cloud gab bekannt, dass die Yunqi-Konferenz 2024 vom 19. bis 21. September in Hangzhou stattfinden wird. Kostenlose Anmeldung für kostenlose Tickets Aug 07, 2024 pm 07:12 PM

Laut Nachrichten dieser Website vom 5. August gab Alibaba Cloud bekannt, dass die Yunqi-Konferenz 2024 vom 19. bis 21. September in der Stadt Yunqi in Hangzhou stattfinden wird. Es wird ein dreitägiges Hauptforum, 400 Unterforen und parallele Themen geben. sowie knapp vierzehntausend Quadratmeter Ausstellungsfläche. Die Yunqi-Konferenz ist kostenlos und für die Öffentlichkeit zugänglich. Ab sofort kann die Öffentlichkeit kostenlose Tickets über die offizielle Website der Yunqi-Konferenz erwerben. Die Ticket-Website ist auf dieser Website angehängt. https://yunqi.aliyun.com/2024 /ticket-list Berichten zufolge entstand die Yunqi-Konferenz im Jahr 2009 und hieß ursprünglich „First China Website Development Forum“. Im Jahr 2015 entwickelte sie sich zur Alibaba Cloud Developer Conference , wurde sie offiziell in „Yunqi-Konferenz“ umbenannt und verlief weiterhin erfolgreich

Tokenisierung in einem Artikel verstehen! Tokenisierung in einem Artikel verstehen! Apr 12, 2024 pm 02:31 PM

Sprachmodelle basieren auf Text, der normalerweise in Form von Zeichenfolgen vorliegt. Da die Eingabe in das Modell jedoch nur Zahlen sein kann, muss der Text in eine numerische Form umgewandelt werden. Die Tokenisierung ist eine grundlegende Aufgabe der Verarbeitung natürlicher Sprache. Sie kann eine fortlaufende Textsequenz (z. B. Sätze, Absätze usw.) entsprechend den spezifischen Anforderungen in eine Zeichenfolge (z. B. Wörter, Phrasen, Zeichen, Satzzeichen usw.) unterteilen. Die darin enthaltenen Einheiten werden als Token oder Wort bezeichnet. Gemäß dem in der Abbildung unten gezeigten spezifischen Prozess werden die Textsätze zunächst in Einheiten unterteilt, dann werden die einzelnen Elemente digitalisiert (in Vektoren abgebildet), dann werden diese Vektoren zur Codierung in das Modell eingegeben und schließlich an nachgelagerte Aufgaben ausgegeben erhalten Sie weiterhin das Endergebnis. Die Textsegmentierung kann entsprechend der Granularität der Textsegmentierung in Toke unterteilt werden.

Alibaba Cloud gab bekannt, dass es Tongyi Qianwens 14-Milliarden-Parameter-Modell Qwen-14B und sein Dialogmodell als Open Source veröffentlichen wird, die für die kommerzielle Nutzung kostenlos sein werden. Alibaba Cloud gab bekannt, dass es Tongyi Qianwens 14-Milliarden-Parameter-Modell Qwen-14B und sein Dialogmodell als Open Source veröffentlichen wird, die für die kommerzielle Nutzung kostenlos sein werden. Sep 26, 2023 pm 08:05 PM

Alibaba Cloud hat heute ein Open-Source-Projekt namens Qwen-14B angekündigt, das ein parametrisches Modell und ein Konversationsmodell umfasst. Dieses Open-Source-Projekt ermöglicht die kostenlose kommerzielle Nutzung: Alibaba Cloud hat zuvor ein Parametermodell Qwen-7B im Wert von 7 Milliarden US-Dollar veröffentlicht. Nach Angaben von Alibaba hat das Downloadvolumen die 1-Millionen-Marke überschritten Cloud, Qwen -14B übertrifft Modelle gleicher Größe in mehreren maßgeblichen Bewertungen, und einige Indikatoren liegen sogar nahe an Llama2-70B. Berichten zufolge handelt es sich bei Qwen-14B um ein leistungsstarkes Open-Source-Modell, das mehrere Sprachen unterstützt. Seine gesamten Trainingsdaten umfassen mehr als 3 Billionen Token, verfügen über stärkere Denk-, Erkenntnis-, Planungs- und Gedächtnisfähigkeiten und unterstützen ein maximales Kontextfenster von 8.000

Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Jul 25, 2024 am 06:42 AM

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

Drei Geheimnisse für die Bereitstellung großer Modelle in der Cloud Drei Geheimnisse für die Bereitstellung großer Modelle in der Cloud Apr 24, 2024 pm 03:00 PM

Zusammenstellung|Produziert von Ich fange an, serverloses Cloud Computing zu vermissen. Ihre Anwendungen reichen von der Verbesserung der Konversations-KI bis hin zur Bereitstellung komplexer Analyselösungen für verschiedene Branchen und vielen anderen Funktionen. Viele Unternehmen setzen diese Modelle auf Cloud-Plattformen ein, da öffentliche Cloud-Anbieter bereits ein fertiges Ökosystem bereitstellen und dies der Weg des geringsten Widerstands ist. Allerdings ist es nicht billig. Die Cloud bietet darüber hinaus weitere Vorteile wie Skalierbarkeit, Effizienz und erweiterte Rechenfunktionen (GPUs auf Anfrage verfügbar). Es gibt einige wenig bekannte Aspekte der Bereitstellung von LLM auf öffentlichen Cloud-Plattformen

Effiziente Parameter-Feinabstimmung umfangreicher Sprachmodelle – BitFit/Prefix/Prompt-Feinabstimmungsserie Effiziente Parameter-Feinabstimmung umfangreicher Sprachmodelle – BitFit/Prefix/Prompt-Feinabstimmungsserie Oct 07, 2023 pm 12:13 PM

Im Jahr 2018 veröffentlichte Google BERT. Nach seiner Veröffentlichung übertraf es die State-of-the-Art-Ergebnisse (Sota) von 11 NLP-Aufgaben und stellte damit einen neuen Meilenstein in der NLP-Welt dar In der Abbildung unten ist der Trainingsprozess des BERT-Modells dargestellt, rechts der Feinabstimmungsprozess für bestimmte Aufgaben. Unter anderem dient die Feinabstimmungsphase der Feinabstimmung, wenn sie anschließend in einigen nachgelagerten Aufgaben verwendet wird, wie z. B. Textklassifizierung, Wortartkennzeichnung, Frage- und Antwortsysteme usw. BERT kann auf verschiedene Arten feinabgestimmt werden Aufgaben ohne Anpassung der Struktur. Durch das Aufgabendesign „vorab trainiertes Sprachmodell + Feinabstimmung der nachgelagerten Aufgabe“ werden leistungsstarke Modelleffekte erzielt. Seitdem ist „Sprachmodell vor dem Training + Feinabstimmung der nachgelagerten Aufgabe“ zum Mainstream-Training im NLP-Bereich geworden.

Was sind die Caching-Mechanismen von Alibaba Cloud? Was sind die Caching-Mechanismen von Alibaba Cloud? Nov 15, 2023 am 11:22 AM

Zu den Caching-Mechanismen von Alibaba Cloud gehören Alibaba Cloud Redis, Alibaba Cloud Memcache, der verteilte Cache-Dienst DSC, Alibaba Cloud Table Store, CDN usw. Ausführliche Einführung: 1. Alibaba Cloud Redis: Eine von Alibaba Cloud bereitgestellte verteilte Speicherdatenbank, die schnelles Lesen und Schreiben sowie Datenpersistenz unterstützt. Durch die Speicherung von Daten im Speicher können Datenzugriff mit geringer Latenz und hohe Parallelitätsverarbeitungsfunktionen bereitgestellt werden. 2. Alibaba Cloud Memcache: das von Alibaba Cloud usw. bereitgestellte Cache-System.

RoSA: Eine neue Methode zur effizienten Feinabstimmung großer Modellparameter RoSA: Eine neue Methode zur effizienten Feinabstimmung großer Modellparameter Jan 18, 2024 pm 05:27 PM

Da Sprachmodelle in einem noch nie dagewesenen Ausmaß skaliert werden, wird eine umfassende Feinabstimmung für nachgelagerte Aufgaben unerschwinglich teuer. Um dieses Problem zu lösen, begannen Forscher, der PEFT-Methode Aufmerksamkeit zu schenken und sie zu übernehmen. Die Hauptidee der PEFT-Methode besteht darin, den Umfang der Feinabstimmung auf einen kleinen Satz von Parametern zu beschränken, um die Rechenkosten zu senken und gleichzeitig eine hochmoderne Leistung bei Aufgaben zum Verstehen natürlicher Sprache zu erzielen. Auf diese Weise können Forscher Rechenressourcen einsparen und gleichzeitig eine hohe Leistung aufrechterhalten, wodurch neue Forschungsschwerpunkte auf dem Gebiet der Verarbeitung natürlicher Sprache entstehen. RoSA ist eine neue PEFT-Technik, die durch Experimente mit einer Reihe von Benchmarks gezeigt hat, dass sie frühere Low-Rank-Adaptive- (LoRA) und reine Sparse-Feinabstimmungsmethoden mit demselben Parameterbudget übertrifft. Dieser Artikel wird näher darauf eingehen

See all articles