ChatGPT erfreute sich in den letzten Monaten großer Beliebtheit und veranlasste alle großen Technologiegiganten, ihre eigenen großen KI-Modelle zu entwickeln. Jetzt hat sich auch Intel dem Kampf angeschlossen und das Aurora-genAI-Modell mit bis zu 1 Billion Parametern auf den Markt gebracht.
Die aktuelle Parametergröße des ChatGPT 3.5-Modells soll 175 Milliarden betragen, was bedeutet, dass das Aurora-genAI-Modell mindestens fünfmal so groß ist. Derzeit bewerben viele Unternehmen ihre Modelle auf Billionen-Parameterebene, aber das gibt es viel Wassergehalt Das 10-Millionen-Parametermodell von Intel ist viel glaubwürdiger.
Weil das Aurora genAI-Modell mit dem von Intel für das Argonne National Laboratory in den Vereinigten Staaten entwickelten Aurora-Supercomputer ausgestattet ist. Seine Leistung hat 20 Milliarden Mal erreicht, was doppelt so viel ist wie die des aktuellen TOP500-Supercomputer-Champions Frontier, der der Welt ist erstes Exascale-Supercomputing.
Der Aurora-Supercomputer verfügt über insgesamt 10.624 Knoten, jeder Knoten verfügt über 2 CPU-Sätze und 6 GPU-Sätze, insgesamt 21.248, und die GPUs sind Intels stärkster Ponte Vecchio. insgesamt 63.744 Personen.
Es gibt außerdem 10,9 PB DDR5-Speicher, 1,36 PB HBM-CPU-Speicher und 8,16 PB HBM-GPU-Speicher. Die Spitzenbandbreiten können jeweils 5,95 PB/s, 30,5 PB/s und 208,9 PB/s erreichen.
Das Speichersystem verfügt außerdem über eine Kapazität von 230 PB und eine Bandbreite von 30 TB/s. Allein von den Parametern her ist der Aurora-Supercomputer wirklich ein Traum.
Das Aurora-genAI-Modell läuft auf dem Aurora-Supercomputer. Die 1-Billion-Parameter-Fähigkeit ist sehr gut und leistungsstark, unterscheidet sich jedoch von ChatGPT. Es wird hauptsächlich im Bereich des wissenschaftlichen Rechnens verwendet, einschließlich Biologie und Krebs und Atmosphärenwissenschaften, Astronomie, Polymerchemie und andere Bereiche.
Das obige ist der detaillierte Inhalt vonFünfmal größer als ChatGPT Intel bringt das Aurora genAI-Großmodell auf den Markt: 1 Billion Parameter. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!