Heim Technologie-Peripheriegeräte KI Gründung der TPC Alliance: Ausrichtung auf KI-Modelle mit mehr als einer Billion Parametern zur Förderung wissenschaftlicher Entdeckungen

Gründung der TPC Alliance: Ausrichtung auf KI-Modelle mit mehr als einer Billion Parametern zur Förderung wissenschaftlicher Entdeckungen

Nov 18, 2023 pm 07:29 PM
ai 模型

Laut Nachrichten vom 16. November haben führende wissenschaftliche Forschungseinrichtungen der Branche, das US National Supercomputing Center und viele führende Unternehmen im KI-Bereich kürzlich gemeinsam das Trillion Parameter Consortium (TPC) gegründet.

TPC 联盟成立:目标万亿以上参数 AI 模型,推进科学发现Generiert von DALL-E 3

Berichten zufolge besteht die TPC Alliance aus Wissenschaftlern aus Labors, wissenschaftlichen Forschungseinrichtungen, Hochschulen und der Industrie auf der ganzen Welt, die sich zum Ziel gesetzt haben, gemeinsam Lösungen für die Wissenschaft zu fördern Entdeckung von Modellen der künstlichen Intelligenz, mit besonderem Fokus auf Riesenmodelle mit einer Billion Parametern oder mehr

Die TPC Alliance arbeitet derzeit an der Entwicklung skalierbarer Modellarchitekturen und Trainingsstrategien und organisiert und sammelt gleichzeitig wissenschaftliche Daten für das Modelltraining, um die Anwendung von KI-Bibliotheken zu optimieren auf aktuellen und zukünftigen Exascale-Computing-Plattformen

TPC zielt darauf ab, eine offene Forschergemeinschaft zu schaffen, um groß angelegte generative KI-Modelle für wissenschaftliche und technische Probleme zu entwickeln. Insbesondere werden gemeinsame Projekte gestartet, um Doppelarbeit zu vermeiden und Methoden und Ansätze auszutauschen , Tools, Wissen und Arbeitsabläufe. Auf diese Weise hofft das Konsortium, die Wirkung dieser Projekte auf die breitere Gemeinschaft der künstlichen Intelligenz und der Wissenschaft zu maximieren. Das Ziel von

TPC ist der Aufbau eines globalen Netzwerks aus Ressourcen, Daten und Fachwissen. Seit seiner Gründung hat das Konsortium mehrere Arbeitsgruppen eingerichtet, die sich mit der Komplexität der Erstellung groß angelegter KI-Modelle befassen.

Die für die Schulung erforderlichen Exascale-Rechenressourcen werden vom US-Energieministerium (DOE) in mehreren Laboren und mehreren Ländern bereitgestellt TPC-Gründungspartner in Japan, Europa und anderen Ländern. Selbst mit diesen Ressourcen kann die Schulung Monate dauern.

Rick Stevens, stellvertretender Direktor für Computer-, Umwelt- und Biowissenschaften am Argonne National Laboratory des US-Energieministeriums und Professor für Informatik an der University of Chicago, sagte: „In unserem Labor und mit Partnerinstitutionen auf der ganzen Welt, , unsere Das Team beginnt mit der Entwicklung einer Reihe hochmoderner Modelle der künstlichen Intelligenz für die wissenschaftliche Forschung und bereitet sich darauf vor, große Mengen bisher unerschlossener wissenschaftlicher Daten für das Training zu nutzen.“

Das obige ist der detaillierte Inhalt vonGründung der TPC Alliance: Ausrichtung auf KI-Modelle mit mehr als einer Billion Parametern zur Förderung wissenschaftlicher Entdeckungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Ist Flash Attention stabil? Meta und Harvard stellten fest, dass die Gewichtsabweichungen ihrer Modelle um Größenordnungen schwankten Ist Flash Attention stabil? Meta und Harvard stellten fest, dass die Gewichtsabweichungen ihrer Modelle um Größenordnungen schwankten May 30, 2024 pm 01:24 PM

MetaFAIR hat sich mit Harvard zusammengetan, um einen neuen Forschungsrahmen zur Optimierung der Datenverzerrung bereitzustellen, die bei der Durchführung groß angelegten maschinellen Lernens entsteht. Es ist bekannt, dass das Training großer Sprachmodelle oft Monate dauert und Hunderte oder sogar Tausende von GPUs verwendet. Am Beispiel des Modells LLaMA270B erfordert das Training insgesamt 1.720.320 GPU-Stunden. Das Training großer Modelle stellt aufgrund des Umfangs und der Komplexität dieser Arbeitsbelastungen einzigartige systemische Herausforderungen dar. In letzter Zeit haben viele Institutionen über Instabilität im Trainingsprozess beim Training generativer SOTA-KI-Modelle berichtet. Diese treten normalerweise in Form von Verlustspitzen auf. Beim PaLM-Modell von Google kam es beispielsweise während des Trainingsprozesses zu Instabilitäten. Numerische Voreingenommenheit ist die Hauptursache für diese Trainingsungenauigkeit.

Gründung der TPC Alliance: Ausrichtung auf KI-Modelle mit mehr als einer Billion Parametern zur Förderung wissenschaftlicher Entdeckungen Gründung der TPC Alliance: Ausrichtung auf KI-Modelle mit mehr als einer Billion Parametern zur Förderung wissenschaftlicher Entdeckungen Nov 18, 2023 pm 07:29 PM

Laut Nachrichten vom 16. November haben führende wissenschaftliche Forschungseinrichtungen der Branche, das US-amerikanische National Supercomputing Center und viele führende Unternehmen im KI-Bereich kürzlich gemeinsam das Trillion Parameter Consortium (TPC) gegründet. Erstellt von DALL-E3 Berichten zufolge hat diese Website erfahren, dass sich die TPC Alliance aus Wissenschaftlern aus Labors, wissenschaftlichen Forschungseinrichtungen, Hochschulen und der Industrie auf der ganzen Welt zusammensetzt. Ziel ist es, gemeinsam Modelle der künstlichen Intelligenz für wissenschaftliche Entdeckungen zu fördern Das TPC-Konsortium arbeitet derzeit an der Entwicklung skalierbarer Modellarchitekturen und Trainingsstrategien und organisiert und kuratiert gleichzeitig wissenschaftliche Daten für das Modelltraining, um KI-Bibliotheken für aktuelle und zukünftige Exascale-Computing-Plattformen zu optimieren

Microsoft führt die XOT-Technologie ein, um die Argumentationsfähigkeiten von Sprachmodellen zu verbessern Microsoft führt die XOT-Technologie ein, um die Argumentationsfähigkeiten von Sprachmodellen zu verbessern Nov 17, 2023 pm 05:45 PM

Laut Nachrichten vom 15. November hat Microsoft kürzlich eine Methode namens „Everything of Thought“ (XOT) auf den Markt gebracht, die von Google DeepMinds AlphaZero inspiriert ist und kompakte neuronale Netze verwendet, um die Argumentationsfähigkeiten von KI-Modellen zu verbessern. Microsoft hat mit dem Georgia Institute of Technology und der East China Normal University zusammengearbeitet, um diesen Algorithmus zu entwickeln, der Verstärkungslernen und MCTS-Funktionen (Monte Carlo Tree Search) integriert, um die Effektivität der Problemlösung in komplexen Entscheidungsumgebungen weiter zu verbessern. Hinweis von dieser Seite: Das Microsoft-Forschungsteam gab an, dass die XOT-Methode das Sprachmodell auf unbekannte Probleme in Gameof24, 8-Puzzle und P erweitern kann

Googles DeepMind hat das RoboCat-KI-Modell entwickelt, das eine Vielzahl von Robotern steuern kann, um eine Reihe von Aufgaben auszuführen Googles DeepMind hat das RoboCat-KI-Modell entwickelt, das eine Vielzahl von Robotern steuern kann, um eine Reihe von Aufgaben auszuführen Jun 26, 2023 pm 04:07 PM

Laut Nachrichten vom 26. Juni sagte DeepMind, eine Tochtergesellschaft von Google, dass das Unternehmen ein künstliches Intelligenzmodell namens RoboCat entwickelt habe, das verschiedene Roboterarme steuern kann, um eine Reihe von Aufgaben auszuführen. Dies allein ist nicht besonders neu, aber DeepMind behauptet, dass das Modell das erste ist, das in der Lage ist, eine Vielzahl von Aufgaben zu lösen und sich an diese anzupassen, und zwar unter Verwendung verschiedener, realer Roboter. RoboCat ist von einem anderen DeepMind-KI-Modell, Gato, inspiriert, das Texte, Bilder und Ereignisse analysieren und verarbeiten kann. Zu den Trainingsdaten von RoboCat gehören Bilder und Bewegungsdaten von simulierten und realen Robotern, die von anderen Robotersteuerungsmodellen in der virtuellen Umgebung, von Menschen gesteuerten Robotern, stammen

Databricks veröffentlicht KI-Modell-SDK für die Big-Data-Analyseplattform Spark: Generierung von SQL- und FySpark-Sprachdiagrammcode mit einem Klick Databricks veröffentlicht KI-Modell-SDK für die Big-Data-Analyseplattform Spark: Generierung von SQL- und FySpark-Sprachdiagrammcode mit einem Klick Jul 17, 2023 pm 05:53 PM

Laut Nachrichten vom 10. Juli hat Databricks kürzlich das von der Big-Data-Analyseplattform Spark verwendete KI-Modell-SDK veröffentlicht. Wenn Entwickler Code schreiben, können sie Anweisungen auf Englisch geben, und der Compiler konvertiert die englischen Anweisungen in die Sprache PySpark oder SQL Codes zur Verbesserung der Entwicklereffizienz. ▲Bildquelle Databricks-Website Es wird berichtet, dass Spark ein Open-Source-Big-Data-Analysetool ist, das mehr als 1 Milliarde Mal pro Jahr heruntergeladen und in 208 Ländern und Regionen auf der ganzen Welt verwendet wird. ▲Bildquelle Databricks-Website Databricks sagte, dass der KI-Code-Assistent GitHubCopilot von Microsoft leistungsstark ist, aber die Schwelle für die Verwendung ist auch relativ hoch, das SDK von Databricks ist relativ universeller und einfacher zu verwenden.

Die von Google DeepMind angekündigte Trainingsmethode „FunSearch' ermöglicht KI-Modellen die Lösung komplexer diskreter mathematischer Probleme Die von Google DeepMind angekündigte Trainingsmethode „FunSearch' ermöglicht KI-Modellen die Lösung komplexer diskreter mathematischer Probleme Dec 17, 2023 pm 08:15 PM

Laut Nachrichten vom 15. Dezember hat Google DeepMind kürzlich eine Modelltrainingsmethode namens „FunSearch“ angekündigt, die angeblich in der Lage ist, eine Reihe von „Problemen der oberen Ebene“ und „Binding“ zu berechnen, die die Bereiche „Mathematik und Informatik umfassen“. Probleme". Komplexe Probleme." Der Inhalt, der neu geschrieben werden muss, ist: ▲Quelle: Google DeepMind (im Folgenden als DeepMind bezeichnet) Es wird berichtet, dass die FunSearch-Modelltrainingsmethode hauptsächlich ein „Evaluator“-System für das KI-Modell und das KI-Modell einführt gibt eine Reihe „kreativer Problemlösungsmethoden“ aus, und der „Bewerter“ ist für die Bewertung der vom Modell ausgegebenen Problemlösungsmethoden verantwortlich. Nach wiederholten Iterationen kann ein KI-Modell mit stärkeren mathematischen Fähigkeiten trainiert werden. Googles DeepM

Microsoft veröffentlicht die neuesten Nutzungsbedingungen für KI: Reverse Engineering und andere Aktivitäten sind verboten Microsoft veröffentlicht die neuesten Nutzungsbedingungen für KI: Reverse Engineering und andere Aktivitäten sind verboten Aug 16, 2023 pm 05:53 PM

Microsoft gab seine KI-Servicebedingungen am 16. August bekannt und kündigte an, dass die Bedingungen am 30. September in Kraft treten werden. Der Hauptinhalt dieses Updates betrifft generative KI, insbesondere Inhalte im Zusammenhang mit der Nutzung relevanter Benutzer und verantwortungsvollen Entwicklungspraktiken. Microsoft betont, dass der Beamte weder die Gesprächsaufzeichnungen von Benutzern, die mit Bing chatten, speichert noch diese Chat-Daten verwendet. Die fünf wichtigsten Richtlinienpunkte, die zum Trainieren des KI-Modells für Bing Enterprise Chat verwendet werden, decken mehrere Bereiche ab, darunter das Verbot, dass Benutzer versuchen, das KI-Modell zurückzuentwickeln, um die Offenlegung zugrunde liegender Komponenten zu verhindern, und das Verbot der Datenextraktion durch Methoden wie Web Scraping ausdrücklich erlaubt; Eine wichtige Klausel hindert Benutzer daran, KI-Daten zum Erstellen oder Verbessern anderer KI-Dienste zu verwenden. Die folgende Klausel wurde von Microsoft hinzugefügt.

Microsoft führt das KI-Modell LLaVA-Med zur Analyse medizinischer Pathologiefälle ein Microsoft führt das KI-Modell LLaVA-Med zur Analyse medizinischer Pathologiefälle ein Jun 15, 2023 pm 03:06 PM

Laut Nachrichten vom 14. Juni haben Microsoft-Forscher kürzlich das LLaVA-Med-Modell demonstriert, das hauptsächlich für die biomedizinische Forschung verwendet wird und anhand von CT- und Röntgenbildern auf den pathologischen Zustand von Patienten schließen kann. Es wird berichtet, dass Microsoft-Forscher mit einer Gruppe von Krankenhäusern zusammengearbeitet und einen großen Datensatz erhalten haben, der biomedizinischem Bildtext entspricht, um ein multimodales KI-Modell zu trainieren. Dieser Datensatz umfasst Röntgenaufnahmen des Brustkorbs, MRT-Bilder, Histologie-, Pathologie- und CT-Bilder usw. mit relativ umfassender Abdeckung. ▲Bildquelle Microsoft Microsoft verwendet GPT-4, basierend auf VisionTransformer und dem Vicuna-Sprachmodell, um LLaVA-Med auf acht NVIDIA A100-GPUs zu trainieren, das „alle Voranalyseinformationen für jedes Bild“ enthält.

See all articles