


Ein weiteres großes KI-Modell wird veröffentlicht und Qishang Online baut dafür eine solide Basis intelligenter Rechenleistung auf
Am 3. Juni veröffentlichte Zhongke Wenge, ein führender inländischer Daten- und Entscheidungsintelligenzdienstleister der Chinesischen Akademie der Wissenschaften, das große Yayi-Modell und startete große Modellanwendungen in den Bereichen Medien, Finanzen, Werbung und anderen Bereichen. Als strategischer Partner des Rechenleistungsdienstes von Zhongke Wenge bietet Qishang Online zuverlässige Basisunterstützung für das große Yayi-Modell in Bezug auf intelligente Rechenleistung.
KI-Rechenleistung ist in die Ära großer Modelle eingetreten. Hinter der rasanten Entwicklung inländischer Großmodelle ist eine enorme intelligente Rechenleistungsunterstützung erforderlich, um umfangreiche Datenverarbeitung, komplexes Modelltraining und Argumentationsaufgabengarantien für KI-Anwendungen bereitzustellen. Als führender Anbieter von digitalen Computing-Integrationsdiensten in China ist Qishang Online seit mehr als 20 Jahren intensiv in der Datenbranche tätig. Bereits im Jahr 2020 legte das Unternehmen die strategische Ausrichtung von KI-Intelligent-Computing-Power-Services fest und begann mit dem Aufbau und Betrieb von intelligenten Rechenzentren.
Im Jahr 2021 unterzeichneten Qishang Online und Zhongke Wenge eine strategische Kooperationsvereinbarung. Die beiden Parteien werden intensiv in den Bereichen Cloud Computing, Big Data, künstliche Intelligenz und anderen Bereichen zusammenarbeiten, um gemeinsam neue Geschäftsmodelle „Digital Intelligence Supercomputing Cloud Computing“ zu entwickeln „Center“ wurde offiziell im Sanlitun Capital Financial Computing Power Center von Enterprise Online eröffnet.
Qishang Online bietet Aufbau, Betrieb, Wartung und andere Dienstleistungen für die Zhongke Wenge Digital Supercomputing Cloud Platform. Es baut einen Big-Data-Ressourcenpool gemäß dem Data-Middle-Plattform-Modell auf, legt Datenstandards fest, integriert modalübergreifende Datenressourcen und realisiert die Datenklassifizierung und Klassifizierung verbessern den Grad der Datennutzung und erreichen so eine „One-Pool-Integration“ von Datenbeständen.
Das dieses Mal veröffentlichte Yayi-Großmodell ist ein schrittweises Ergebnis der jahrelangen Erforschung und technischen Forschung von Zhongke Wenge, die auf der Richtung der Technologie der neuen Generation der künstlichen Intelligenz basiert. Es ist auch eine wichtige intellektuelle Frucht, die vom „Digital Intelligence Supercomputing Cloud Computing Center“ hervorgebracht wurde. . Die Cloud-Computing-Ressourcen und Hosting-Dienste von Qishang Online beschleunigen die Produktentwicklung und erhöhen die Geschwindigkeit des Modelltrainings.
Das Yayi-Großmodell ist ein sicheres und zuverlässiges exklusives Großmodell auf Unternehmensebene mit 5 Kernfunktionen, darunter Netzwerk-Fragen und Antworten in Echtzeit, Fragen und Antworten zu Domänenwissen, mehrsprachiges Inhaltsverständnis, Extraktion komplexer Szeneninformationen und multimodale Inhaltsgenerierung. Mit insgesamt mehr als 100 Funktionen kann Skills schnell Regierungs- und Unternehmensdaten verbinden und mit einem Klick große, exklusive Anwendungsdienste für Modelle generieren.
Das große Yayi-Modell unterstützt drei Nutzungsmethoden: Cloud-Nutzung, lokale All-in-One-Maschinenbereitstellung und unabhängige private Schulungsbereitstellung. Es kann Szenariounternehmen in den Bereichen Finanzen, Medien, Governance, Sicherheit und anderen Bereichen abdecken und auf diese verallgemeinert werden Heimtextilien, medizinische Versorgung, Bildung und andere Branchen.
Zhongke Wenge hofft, mit den großen Yayi-Modellen umfassende Großmodelllösungen für verschiedene Unternehmen und Branchen bereitzustellen. Als Anbieter von Rechenleistungs-Infrastrukturdiensten wird Qishang Online weiterhin eine intensive und umfassende industrielle Zusammenarbeit und Integration mit vor- und nachgelagerten kooperativen Unternehmen betreiben, um eine öffentliche KI-Rechenleistungsdienstplattform aufzubauen, die eine Rechenleistungsgarantie für die Implementierung weiterer KI-Szenarien bietet , wodurch künstliche Intelligenz ermöglicht wird Die Entwicklung aller Lebensbereiche bringt größere Dividenden!
Das obige ist der detaillierte Inhalt vonEin weiteres großes KI-Modell wird veröffentlicht und Qishang Online baut dafür eine solide Basis intelligenter Rechenleistung auf. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Kürzlich fand die „Lingang New Area Intelligent Computing Conference“ mit dem Thema „KI führt die Ära an, Rechenleistung treibt die Zukunft“ statt. Bei dem Treffen wurde die New Area Intelligent Computing Industry Alliance offiziell als Anbieter von Rechenleistung gegründet. Gleichzeitig wurde SenseTime der Titel „New Area Intelligent Computing Industry Chain Master“ verliehen. Als aktiver Teilnehmer am Lingang-Rechenleistungs-Ökosystem hat SenseTime derzeit eine der größten intelligenten Computerplattformen Asiens aufgebaut – SenseTime AIDC, die eine Gesamtrechenleistung von 5.000 Petaflops ausgeben und 20 ultragroße Modelle mit Hunderten von Milliarden Parametern unterstützen kann. Trainiere gleichzeitig. SenseCore, ein auf AIDC basierendes und zukunftsorientiertes Großgerät, hat sich zum Ziel gesetzt, eine hocheffiziente, kostengünstige und groß angelegte KI-Infrastruktur und -Dienste der nächsten Generation zu schaffen, um künstliche Intelligenz zu stärken.

IT House berichtete am 13. Oktober, dass „Joule“, eine Schwesterzeitschrift von „Cell“, diese Woche einen Artikel mit dem Titel „Der wachsende Energie-Fußabdruck künstlicher Intelligenz“ veröffentlicht hat. Durch Nachfragen erfuhren wir, dass dieses Papier von Alex DeVries, dem Gründer der wissenschaftlichen Forschungseinrichtung Digiconomist, veröffentlicht wurde. Er behauptete, dass die Denkleistung der künstlichen Intelligenz in Zukunft viel Strom verbrauchen könnte. Schätzungen zufolge könnte der Stromverbrauch der künstlichen Intelligenz bis 2027 dem Stromverbrauch der Niederlande für ein Jahr entsprechen Die Außenwelt hat immer geglaubt, dass das Training eines KI-Modells „das Wichtigste in der KI“ sei.

Ich glaube, dass Freunden, die dem Handykreis folgen, der Satz „Bekomme eine Punktzahl, wenn du sie nicht akzeptierst“ nicht unbekannt sein wird. Beispielsweise haben theoretische Leistungstestsoftware wie AnTuTu und GeekBench große Aufmerksamkeit bei Spielern auf sich gezogen, da sie die Leistung von Mobiltelefonen bis zu einem gewissen Grad widerspiegeln können. Ebenso gibt es entsprechende Benchmarking-Software für PC-Prozessoren und Grafikkarten, um deren Leistung zu messen. Da „alles bewertet werden kann“, nehmen auch die beliebtesten großen KI-Modelle an Benchmarking-Wettbewerben teil, insbesondere an den „Hundert Modellen“. Der „Krieg“ begann, fast jeden Tag gab es Durchbrüche. Die großen inländischen KI-Modelle fielen in Bezug auf die Leistungswerte fast nie zurück, waren jedoch nie in der Lage, GP zu übertreffen der Benutzererfahrung.

IT House berichtete am 3. November, dass auf der offiziellen Website des Instituts für Physik der Chinesischen Akademie der Wissenschaften kürzlich ein Artikel der SF10-Gruppe des Instituts für Physik der Chinesischen Akademie der Wissenschaften/Beijing National Research Center for Condensed Matter Physics veröffentlicht wurde und das Computer Network Information Center der Chinesischen Akademie der Wissenschaften haben zusammengearbeitet, um große KI-Modelle auf die Materialwissenschaft anzuwenden. Vor Ort werden Zehntausende von Daten zu chemischen Synthesewegen in das große Sprachmodell LLAMA2-7b eingespeist, wodurch ein MatChat-Modell entsteht , mit deren Hilfe die Synthesewege anorganischer Materialien vorhergesagt werden können. IT House stellte fest, dass das Modell logische Überlegungen basierend auf der abgefragten Struktur durchführen und den entsprechenden Vorbereitungsprozess und die entsprechende Formel ausgeben kann. Es wurde online bereitgestellt und steht allen Materialforschern offen und bringt neue Inspiration und neue Ideen in die Materialforschung und -innovation. Diese Arbeit konzentriert sich auf große Sprachmodelle im Bereich der segmentierten Wissenschaft

Driving China News am 28. Juni 2023, heute während des Mobile World Congress in Shanghai, veröffentlichte China Unicom das Grafikmodell „Honghu Graphic Model 1.0“. China Unicom sagte, dass das Honghu-Grafikmodell das erste große Modell für Mehrwertdienste von Betreibern sei. Ein Reporter von China Business News erfuhr, dass das Grafikmodell von Honghu derzeit über zwei Versionen von 800 Millionen Trainingsparametern und 2 Milliarden Trainingsparametern verfügt, mit denen Funktionen wie textbasierte Bilder, Videobearbeitung und bildbasierte Bilder realisiert werden können. Darüber hinaus sagte Liu Liehong, Vorsitzender von China Unicom, in seiner heutigen Grundsatzrede, dass generative KI eine einzigartige Entwicklung einleitet und 50 % der Arbeitsplätze in den nächsten zwei Jahren stark von künstlicher Intelligenz betroffen sein werden.

Das Transformer-Modell stammt aus dem vom Google-Team im Jahr 2017 veröffentlichten Artikel „Attentionisallyouneed“. In diesem Artikel wurde zunächst das Konzept vorgeschlagen, Aufmerksamkeit als Ersatz für die zyklische Struktur des Seq2Seq-Modells zu verwenden, was große Auswirkungen auf den NLP-Bereich hatte. Und mit der kontinuierlichen Weiterentwicklung der Forschung in den letzten Jahren sind Transformer-bezogene Technologien nach und nach von der Verarbeitung natürlicher Sprache auf andere Bereiche übergegangen. Bisher sind die Modelle der Transformer-Serie zu Mainstream-Modellen in NLP, CV, ASR und anderen Bereichen geworden. Daher ist die Frage, wie Transformer-Modelle schneller trainiert und abgeleitet werden können, zu einer wichtigen Forschungsrichtung in der Branche geworden. Quantisierungstechniken mit geringer Präzision können

Die Abteilung für künstliche Intelligenz von Meta Platforms erklärte kürzlich, dass sie KI-Modellen mit Unterstützung einer kleinen Menge an Trainingsdaten das Laufenlernen in der physischen Welt beibringen und dabei schnelle Fortschritte gemacht haben. Diese Forschung kann die Zeit, die KI-Modelle benötigen, um visuelle Navigationsfähigkeiten zu erwerben, erheblich verkürzen. Bisher war zum Erreichen solcher Ziele wiederholtes „Reinforcement Learning“ unter Verwendung großer Datensätze erforderlich. Meta-KI-Forscher sagten, dass diese Erforschung der visuellen KI-Navigation erhebliche Auswirkungen auf die virtuelle Welt haben wird. Die Grundidee des Projekts ist nicht kompliziert: der KI dabei zu helfen, sich genauso wie Menschen durch den physischen Raum zu bewegen, einfach durch Beobachtung und Erkundung. Die Meta-KI-Abteilung erklärte: „Wenn wir beispielsweise möchten, dass uns eine AR-Brille beim Auffinden von Schlüsseln hilft, müssen wir das tun.“

Nvidia hat kürzlich die Einführung einer neuen Open-Source-Software-Suite namens TensorRT-LLM angekündigt, die die Möglichkeiten der Optimierung großer Sprachmodelle auf Nvidia-GPUs erweitert und nach der Bereitstellung die Grenzen der Inferenzleistung künstlicher Intelligenz sprengt. Generative KI-Modelle für große Sprachen erfreuen sich aufgrund ihrer beeindruckenden Fähigkeiten großer Beliebtheit. Es erweitert die Möglichkeiten der künstlichen Intelligenz und findet breite Anwendung in verschiedenen Branchen. Benutzer können Informationen erhalten, indem sie mit Chatbots sprechen, große Dokumente zusammenfassen, Softwarecode schreiben und neue Wege zum Verständnis von Informationen entdecken, sagte Ian Buck, Vizepräsident für Hyperscale und High Performance Computing bei Nvidia Corporation: „Die Inferenz großer Sprachmodelle wird immer beliebter.“ schwierig. Die Komplexität des Modells nimmt weiter zu, das Modell wird immer intelligenter
