


AMD: Meta übernimmt seine Cloud-Chips, um eine neue Strategie für künstliche Intelligenz zu unterstützen
Nachrichten vom 14. Juni, am Dienstag Ortszeit in den USA, gab der Chipriese AMD bekannt, dass er die Produktion des neuen Chips für künstliche Intelligenz MI300X im vierten Quartal steigern wird, um den Marktführer Nvidia herauszufordern. Gleichzeitig nutzt Meta die Cloud-Chips von AMD, um seine neue Strategie für künstliche Intelligenz zu unterstützen.
AMD-CEO Lisa Su sagte auf einer Pressekonferenz in San Francisco, dass der MI300X-Chip über 192 GB Speicher verfügt, was alle aktuellen Chips von Nvidia übertrifft. Für die Verarbeitung großer KI-Systeme wie ChatGPT ist der Speicher ein wichtiger Leistungsindikator zur Messung von Chips.
Su Zifeng sagte: „Es besteht kein Zweifel daran, dass künstliche Intelligenz in absehbarer Zeit ein wesentlicher Treiber des Chipverbrauchs sein wird.“ Sie fügte hinzu, dass Kunden im dritten Quartal Musterchips erhalten und die Produktion noch vor Ende hochgefahren werden wird des Jahres.
Su Zifeng hob außerdem ein System hervor, das 8 MI300X-Chips in einen Computer integriert, um mit ähnlichen Produkten von Nvidia zu konkurrieren.
AMD gab außerdem bekannt, dass es mit der Lieferung von Allzweck-Zentraleinheitschips namens „Bergamo“ in großem Umfang an die Facebook-Muttergesellschaft Meta und andere begonnen hat.
Meta Computing Infrastructure Executive Alexis Black Bjorlin bestätigte außerdem, dass das Unternehmen tatsächlich Bergamo-Chips eingeführt hat. Der Chip ist Teil des Rechenzentrumsgeschäfts von AMD und wurde speziell für die Bedürfnisse von Cloud-Computing-Dienstleistern und anderen großen Chipkäufern entwickelt.
Allerdings ist es nicht einfach, die Dominanz von Nvidia herauszufordern, da es nur wenige starke Konkurrenten gibt. Während Intel mit mehreren Start-ups wie Cerebras Systems und SambaNova Systems konkurrierende Produkte hat, ist Nvidias bisher größtes Verkaufsrisiko der interne Chip-Betrieb von Google und Amazons Cloud-Computing-Einheit, die beide ihre eigenen maßgeschneiderten Chips an externe Entwickler vermieten.
Nvidias Führungsrolle beruht nicht nur auf seinen Chips, sondern auch auf mehr als einem Jahrzehnt der Bereitstellung von Softwaretools für KI-Forscher und dem Lernen, vorherzusagen, welche Unterstützung sie bei Chips benötigen, deren Entwicklung Jahre dauert. AMD hat am Dienstag seine ROCM-Software aktualisiert, die mit Nvidias Cuda-Softwareplattform konkurriert.
Moor Insights & Strategy-Analyst Anshel Sag sagte: „Auch wenn AMD in Bezug auf die Hardwareleistung wettbewerbsfähig ist, sind die Leute immer noch nicht davon überzeugt, dass seine Softwarelösungen mit Nvidia konkurrieren können.“
Meta-Vizepräsident Soumith Chintala hat bei der Entwicklung von Open Source geholfen Software für künstliche Intelligenz. Er sagte kürzlich in einer Rede, dass er eng mit AMD zusammenarbeite, um KI-Entwicklern kostenlose Tools zugänglicher zu machen und den „einzigen dominanten Lieferanten“ von KI-Chips auf andere Unternehmen wie AMD zu verlagern.
Chintala fügte hinzu: „Es ist so einfach, von einer Plattform zur anderen zu wechseln, dass man eigentlich nicht so viel Arbeit machen muss. In vielen Fällen gibt es fast gar keine Arbeit.“ Laut Analysten ist der Aktienkurs von Nvidia ist in diesem Jahr bisher um 170 % gestiegen und nimmt 80 bis 95 % des Marktanteils am Markt für künstliche Intelligenz ein. Bei Handelsschluss am Dienstag stieg der Aktienkurs von Nvidia um 3,9 % und schloss bei 410,22 US-Dollar pro Aktie. Damit war Nvidia der erste Chiphersteller, der einen Schlussmarktwert von mehr als 1 Billion US-Dollar hatte.
Im Gegensatz dazu konnte AMD die Anleger nicht beeindrucken, obwohl AMD die neuesten Fortschritte bei seiner Strategie für künstliche Intelligenz veröffentlichte, und die Aktie schloss an diesem Tag mit einem Minus von 3,6 %. Dennoch haben sich die AMD-Aktien seit Jahresbeginn verdoppelt und früher am Tag ein 16-Monats-Hoch erreicht, was auf den Optimismus hinsichtlich der Investitionen des Unternehmens in künstliche Intelligenz zurückzuführen ist.
Das obige ist der detaillierte Inhalt vonAMD: Meta übernimmt seine Cloud-Chips, um eine neue Strategie für künstliche Intelligenz zu unterstützen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen





Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Die Meta Connect 2024-Veranstaltung findet vom 25. bis 26. September statt. Bei dieser Veranstaltung wird das Unternehmen voraussichtlich ein neues erschwingliches Virtual-Reality-Headset vorstellen. Gerüchten zufolge handelt es sich bei dem VR-Headset um das Meta Quest 3S, das offenbar auf der FCC-Liste aufgetaucht ist. Dieser Vorschlag

Machen Sie Ihre GPU bereit! Llama3.1 ist endlich erschienen, aber die Quelle ist nicht offiziell von Meta. Heute gingen die durchgesickerten Nachrichten über das neue Llama-Großmodell auf Reddit viral. Zusätzlich zum Basismodell enthält es auch Benchmark-Ergebnisse von 8B, 70B und den maximalen Parameter von 405B. Die folgende Abbildung zeigt die Vergleichsergebnisse jeder Version von Llama3.1 mit OpenAIGPT-4o und Llama38B/70B. Es ist ersichtlich, dass selbst die 70B-Version in mehreren Benchmarks GPT-4o übertrifft. Bildquelle: https://x.com/mattshumer_/status/1815444612414087294 Offensichtlich Version 3.1 von 8B und 70

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

Gerade jetzt wurde das lang erwartete Llama 3.1 offiziell veröffentlicht! Meta gab offiziell bekannt, dass „Open Source eine neue Ära einläutet“. Im offiziellen Blog sagte Meta: „Bis heute sind große Open-Source-Sprachmodelle hinsichtlich Funktionalität und Leistung meist hinter geschlossenen Modellen zurückgeblieben. Jetzt läuten wir eine neue Ära ein, die von Open Source angeführt wird. Wir haben MetaLlama3.1405B öffentlich veröffentlicht.“ , von dem wir glauben, dass es sich um das größte und leistungsfähigste Open-Source-Basismodell der Welt handelt, die Gesamtzahl der Downloads aller Llama-Versionen hat gerade 300 Millionen Mal überschritten, und wir haben gerade erst damit begonnen, eine zu schreiben Artikel. Langer Artikel „OpenSourceAIIsthePathForward“,

Seit Metas Erstveröffentlichung von Quest 3 (aktuell 499,99 $ bei Amazon) ist mittlerweile über ein Jahr vergangen. Seitdem hat Apple das deutlich teurere Vision Pro ausgeliefert, während Byte Dance nun in China die Pico 4 Ultra vorgestellt hat. Es gibt jedoch eine
