


Gründung der TPC Alliance: Ausrichtung auf KI-Modelle mit mehr als einer Billion Parametern zur Förderung wissenschaftlicher Entdeckungen
Laut Nachrichten vom 16. November haben führende wissenschaftliche Forschungseinrichtungen der Branche, das US National Supercomputing Center und viele führende Unternehmen im KI-Bereich kürzlich gemeinsam das Trillion Parameter Consortium (TPC) gegründet.
Generiert von DALL-E 3
Berichten zufolge besteht die TPC Alliance aus Wissenschaftlern aus Labors, wissenschaftlichen Forschungseinrichtungen, Hochschulen und der Industrie auf der ganzen Welt, die sich zum Ziel gesetzt haben, gemeinsam Lösungen für die Wissenschaft zu fördern Entdeckung von Modellen der künstlichen Intelligenz, mit besonderem Fokus auf Riesenmodelle mit einer Billion Parametern oder mehr
Die TPC Alliance arbeitet derzeit an der Entwicklung skalierbarer Modellarchitekturen und Trainingsstrategien und organisiert und sammelt gleichzeitig wissenschaftliche Daten für das Modelltraining, um die Anwendung von KI-Bibliotheken zu optimieren auf aktuellen und zukünftigen Exascale-Computing-Plattformen
TPC zielt darauf ab, eine offene Forschergemeinschaft zu schaffen, um groß angelegte generative KI-Modelle für wissenschaftliche und technische Probleme zu entwickeln. Insbesondere werden gemeinsame Projekte gestartet, um Doppelarbeit zu vermeiden und Methoden und Ansätze auszutauschen , Tools, Wissen und Arbeitsabläufe. Auf diese Weise hofft das Konsortium, die Wirkung dieser Projekte auf die breitere Gemeinschaft der künstlichen Intelligenz und der Wissenschaft zu maximieren. Das Ziel von
TPC ist der Aufbau eines globalen Netzwerks aus Ressourcen, Daten und Fachwissen. Seit seiner Gründung hat das Konsortium mehrere Arbeitsgruppen eingerichtet, die sich mit der Komplexität der Erstellung groß angelegter KI-Modelle befassen.
Die für die Schulung erforderlichen Exascale-Rechenressourcen werden vom US-Energieministerium (DOE) in mehreren Laboren und mehreren Ländern bereitgestellt TPC-Gründungspartner in Japan, Europa und anderen Ländern. Selbst mit diesen Ressourcen kann die Schulung Monate dauern.
Rick Stevens, stellvertretender Direktor für Computer-, Umwelt- und Biowissenschaften am Argonne National Laboratory des US-Energieministeriums und Professor für Informatik an der University of Chicago, sagte: „In unserem Labor und mit Partnerinstitutionen auf der ganzen Welt, , unsere Das Team beginnt mit der Entwicklung einer Reihe hochmoderner Modelle der künstlichen Intelligenz für die wissenschaftliche Forschung und bereitet sich darauf vor, große Mengen bisher unerschlossener wissenschaftlicher Daten für das Training zu nutzen.“
Das obige ist der detaillierte Inhalt vonGründung der TPC Alliance: Ausrichtung auf KI-Modelle mit mehr als einer Billion Parametern zur Förderung wissenschaftlicher Entdeckungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



MetaFAIR hat sich mit Harvard zusammengetan, um einen neuen Forschungsrahmen zur Optimierung der Datenverzerrung bereitzustellen, die bei der Durchführung groß angelegten maschinellen Lernens entsteht. Es ist bekannt, dass das Training großer Sprachmodelle oft Monate dauert und Hunderte oder sogar Tausende von GPUs verwendet. Am Beispiel des Modells LLaMA270B erfordert das Training insgesamt 1.720.320 GPU-Stunden. Das Training großer Modelle stellt aufgrund des Umfangs und der Komplexität dieser Arbeitsbelastungen einzigartige systemische Herausforderungen dar. In letzter Zeit haben viele Institutionen über Instabilität im Trainingsprozess beim Training generativer SOTA-KI-Modelle berichtet. Diese treten normalerweise in Form von Verlustspitzen auf. Beim PaLM-Modell von Google kam es beispielsweise während des Trainingsprozesses zu Instabilitäten. Numerische Voreingenommenheit ist die Hauptursache für diese Trainingsungenauigkeit.

Laut Nachrichten vom 16. November haben führende wissenschaftliche Forschungseinrichtungen der Branche, das US-amerikanische National Supercomputing Center und viele führende Unternehmen im KI-Bereich kürzlich gemeinsam das Trillion Parameter Consortium (TPC) gegründet. Erstellt von DALL-E3 Berichten zufolge hat diese Website erfahren, dass sich die TPC Alliance aus Wissenschaftlern aus Labors, wissenschaftlichen Forschungseinrichtungen, Hochschulen und der Industrie auf der ganzen Welt zusammensetzt. Ziel ist es, gemeinsam Modelle der künstlichen Intelligenz für wissenschaftliche Entdeckungen zu fördern Das TPC-Konsortium arbeitet derzeit an der Entwicklung skalierbarer Modellarchitekturen und Trainingsstrategien und organisiert und kuratiert gleichzeitig wissenschaftliche Daten für das Modelltraining, um KI-Bibliotheken für aktuelle und zukünftige Exascale-Computing-Plattformen zu optimieren

Laut Nachrichten vom 15. November hat Microsoft kürzlich eine Methode namens „Everything of Thought“ (XOT) auf den Markt gebracht, die von Google DeepMinds AlphaZero inspiriert ist und kompakte neuronale Netze verwendet, um die Argumentationsfähigkeiten von KI-Modellen zu verbessern. Microsoft hat mit dem Georgia Institute of Technology und der East China Normal University zusammengearbeitet, um diesen Algorithmus zu entwickeln, der Verstärkungslernen und MCTS-Funktionen (Monte Carlo Tree Search) integriert, um die Effektivität der Problemlösung in komplexen Entscheidungsumgebungen weiter zu verbessern. Hinweis von dieser Seite: Das Microsoft-Forschungsteam gab an, dass die XOT-Methode das Sprachmodell auf unbekannte Probleme in Gameof24, 8-Puzzle und P erweitern kann

Laut Nachrichten vom 26. Juni sagte DeepMind, eine Tochtergesellschaft von Google, dass das Unternehmen ein künstliches Intelligenzmodell namens RoboCat entwickelt habe, das verschiedene Roboterarme steuern kann, um eine Reihe von Aufgaben auszuführen. Dies allein ist nicht besonders neu, aber DeepMind behauptet, dass das Modell das erste ist, das in der Lage ist, eine Vielzahl von Aufgaben zu lösen und sich an diese anzupassen, und zwar unter Verwendung verschiedener, realer Roboter. RoboCat ist von einem anderen DeepMind-KI-Modell, Gato, inspiriert, das Texte, Bilder und Ereignisse analysieren und verarbeiten kann. Zu den Trainingsdaten von RoboCat gehören Bilder und Bewegungsdaten von simulierten und realen Robotern, die von anderen Robotersteuerungsmodellen in der virtuellen Umgebung, von Menschen gesteuerten Robotern, stammen

Laut Nachrichten vom 10. Juli hat Databricks kürzlich das von der Big-Data-Analyseplattform Spark verwendete KI-Modell-SDK veröffentlicht. Wenn Entwickler Code schreiben, können sie Anweisungen auf Englisch geben, und der Compiler konvertiert die englischen Anweisungen in die Sprache PySpark oder SQL Codes zur Verbesserung der Entwicklereffizienz. ▲Bildquelle Databricks-Website Es wird berichtet, dass Spark ein Open-Source-Big-Data-Analysetool ist, das mehr als 1 Milliarde Mal pro Jahr heruntergeladen und in 208 Ländern und Regionen auf der ganzen Welt verwendet wird. ▲Bildquelle Databricks-Website Databricks sagte, dass der KI-Code-Assistent GitHubCopilot von Microsoft leistungsstark ist, aber die Schwelle für die Verwendung ist auch relativ hoch, das SDK von Databricks ist relativ universeller und einfacher zu verwenden.

Laut Nachrichten vom 15. Dezember hat Google DeepMind kürzlich eine Modelltrainingsmethode namens „FunSearch“ angekündigt, die angeblich in der Lage ist, eine Reihe von „Problemen der oberen Ebene“ und „Binding“ zu berechnen, die die Bereiche „Mathematik und Informatik umfassen“. Probleme". Komplexe Probleme." Der Inhalt, der neu geschrieben werden muss, ist: ▲Quelle: Google DeepMind (im Folgenden als DeepMind bezeichnet) Es wird berichtet, dass die FunSearch-Modelltrainingsmethode hauptsächlich ein „Evaluator“-System für das KI-Modell und das KI-Modell einführt gibt eine Reihe „kreativer Problemlösungsmethoden“ aus, und der „Bewerter“ ist für die Bewertung der vom Modell ausgegebenen Problemlösungsmethoden verantwortlich. Nach wiederholten Iterationen kann ein KI-Modell mit stärkeren mathematischen Fähigkeiten trainiert werden. Googles DeepM

Microsoft gab seine KI-Servicebedingungen am 16. August bekannt und kündigte an, dass die Bedingungen am 30. September in Kraft treten werden. Der Hauptinhalt dieses Updates betrifft generative KI, insbesondere Inhalte im Zusammenhang mit der Nutzung relevanter Benutzer und verantwortungsvollen Entwicklungspraktiken. Microsoft betont, dass der Beamte weder die Gesprächsaufzeichnungen von Benutzern, die mit Bing chatten, speichert noch diese Chat-Daten verwendet. Die fünf wichtigsten Richtlinienpunkte, die zum Trainieren des KI-Modells für Bing Enterprise Chat verwendet werden, decken mehrere Bereiche ab, darunter das Verbot, dass Benutzer versuchen, das KI-Modell zurückzuentwickeln, um die Offenlegung zugrunde liegender Komponenten zu verhindern, und das Verbot der Datenextraktion durch Methoden wie Web Scraping ausdrücklich erlaubt; Eine wichtige Klausel hindert Benutzer daran, KI-Daten zum Erstellen oder Verbessern anderer KI-Dienste zu verwenden. Die folgende Klausel wurde von Microsoft hinzugefügt.

Laut Nachrichten vom 14. Juni haben Microsoft-Forscher kürzlich das LLaVA-Med-Modell demonstriert, das hauptsächlich für die biomedizinische Forschung verwendet wird und anhand von CT- und Röntgenbildern auf den pathologischen Zustand von Patienten schließen kann. Es wird berichtet, dass Microsoft-Forscher mit einer Gruppe von Krankenhäusern zusammengearbeitet und einen großen Datensatz erhalten haben, der biomedizinischem Bildtext entspricht, um ein multimodales KI-Modell zu trainieren. Dieser Datensatz umfasst Röntgenaufnahmen des Brustkorbs, MRT-Bilder, Histologie-, Pathologie- und CT-Bilder usw. mit relativ umfassender Abdeckung. ▲Bildquelle Microsoft Microsoft verwendet GPT-4, basierend auf VisionTransformer und dem Vicuna-Sprachmodell, um LLaVA-Med auf acht NVIDIA A100-GPUs zu trainieren, das „alle Voranalyseinformationen für jedes Bild“ enthält.
