


Xiao Zha und Musk erklären ChatGPT den Krieg! Meta und Twitter bilden ein Top-KI-Team und sorgen überall im Silicon Valley für Rauch
Die Popularität von ChatGPT hat die Landschaft des gesamten Silicon Valley-Riesen direkt verändert.
Microsofts Schritt-für-Schritt-Maßnahmen haben Google gezwungen, aus seiner Selbstgefälligkeit auszusteigen und den KI-Chatbot Bard dringend freizugeben.
Und die anderen Kräfte in den großen Silicon-Valley-Unternehmen werden natürlich nicht tatenlos zusehen.
Kürzlich sind auch Musk und Zuckerberg zurückgetreten und haben ChatGPT offiziell den Krieg erklärt!
Laut The Information stand Musk in den letzten Wochen in Kontakt mit KI-Forschern in der Hoffnung, ein neues Forschungslabor einzurichten, um einen KI-Chatbot zu entwickeln, der direkt mit ChatGPT von OpenAI konkurrieren kann.
Gleichzeitig gab Xiao Zha kürzlich auch auf seiner eigenen Plattform bekannt, dass Meta ein Top-KI-Team bilden wird, das sich auf die Entwicklung generativer Produkte für künstliche Intelligenz konzentrieren wird. Das neue Team wird von Ahmad Al-Dahle, Leiter der Abteilung Künstliche Intelligenz, geleitet und berichtet an den derzeitigen Chief Product Manager Chris Cox.
Meta begrüßt den ChatGPT-Kampf
Seit seinem hochkarätigen Einstieg in das Metaversum war der Technologieriese Meta in den Augen von Außenstehenden etwas langsam im Chatbot-Trend.
Eigentlich ist das nicht der Fall, aber ich habe es noch nicht besiegt.
Bereits im Juni letzten Jahres stellte Meta sein selbst entwickeltes groß angelegtes Sprachmodell OPT-66B als Open Source zur Verfügung und veröffentlichte bereits im August den OPT-basierten Chat-Roboter BlenderBot3.
Im Gegensatz zu ChatGPT, das sofort ein Hit wurde und innerhalb von 5 Tagen nach seiner Einführung mehr als 1 Million Benutzer hatte, fühlt sich Metas Blenderbot langweilig an.
Und bald war dieser Chatbot voller Probleme. Er kritisierte nicht nur seinen eigenen Chef, sondern veröffentlichte auch bösartige Bemerkungen und falsche Informationen, was direkt zu einer Katastrophe führte.
Im November kam das „Hilfsmittel für die wissenschaftliche Forschung“ Galactica heraus.
Das Papier enthüllte, dass es auf 48 Millionen Aufsätzen, Lehrbüchern und Vorlesungsskripten, Millionen von Verbindungen und Proteinen, wissenschaftlichen Websites und Enzyklopädien mit insgesamt 120 Milliarden Parametern trainiert wurde.
Galactica, die eigentlich stark sein sollte, fasste die wissenschaftliche Forschung jedoch nicht nur sehr ungenau zusammen, sondern war auch voreingenommen. Infolgedessen wurde sie nur drei Tage nach ihrer Online-Veröffentlichung hastig aus den Regalen genommen.
Natürlich ließen die aufeinanderfolgenden Misserfolge Meta keine Schwäche zeigen.
Im Februar dieses Jahres veröffentlichte Meta ein neues großes Sprachmodell mit 65 Milliarden Parametern, LLaMA. Es ist nicht nur Open Source, sondern bietet bei den meisten Aufgaben auch eine bessere Leistung als GPT-3.
Papieradresse: https://research.facebook.com/publications/llama-open-and-efficient-foundation-Language-Models/
Was es einzigartig macht Der Vorteil ist, dass es von Forschern verwendet werden kann, klein ist und geringere Nutzungskosten verursacht. Meta hofft, dass Forscher damit einige der Probleme lösen können, die große Sprachmodelle plagen.
Aufgrund des Fiasko seiner eigenen Galactica war Yann LeCun etwas sauer in seinen Worten über das beliebte ChatGPT:
„Es kann nicht erweitert werden und wird niemals ein Tor zu starker künstlicher Intelligenz werden.“ . Der richtige Weg.“
„Was die zugrunde liegende Technologie betrifft, ist ChatGPT keine große Innovation.“
Als das LLaMA-Modell jedoch herauskam, zeigte er es auch.
Xiao Zha sagte, dass noch viel grundlegende Arbeit zu leisten sei, bevor ein echtes Zukunftserlebnis realisiert werden könne, und er sei gespannt auf all die neuen Dinge, die Meta dabei schaffen werde.
Mit anderen Worten: Meta hat in diesem Bereich viel geforscht, war jedoch bei der Anwendung dieser Technologien auf Produkte vorsichtiger als Microsoft und Google.
Mit der Gründung des neuen Meta-Teams können die von Forschern erstellten Sprach- und Bildmodelle künftig schneller in ihren eigenen Produkten dargestellt werden.
Nachdem Musk den DeepMind-Chef abgeworben hat, wird er auch ChatGPT erstellen
Jetzt erstellen große Hersteller auf der ganzen Welt ihr eigenes ChatGPT, und Akademiemitglied Ma darf natürlich nicht fehlen.
In den letzten Monaten hat Musk OpenAI dafür kritisiert, dass es zu viele Schritte unternimmt, um ChatGPT dazu zu bringen, sich im Kreis zu drehen, um Benutzer nicht zu beleidigen.
Letztes Jahr sagte Musk, dass die OpenAI-Technologie „KI trainiert, um sie alarmiert zu machen“. Der Akademiker möchte sich nicht über kontroverse Themen im Kreis drehen.
Zu diesem Zweck engagierte Musk Igor Babuschkin, einen Forscher in der KI-Abteilung von DeepMind.
Papieradresse: https://www.nature.com/articles/s41586-019-1724-z
Im Jahr 2021 veröffentlichte DeepMind eine vorab trainierte Sprache mit 280 Milliarden Parameter Model Gopher verfügt über 280 Milliarden Parameter, was fast dem Doppelten der 150 Milliarden Parameter von OpenAI GPT-3 entspricht. Babuschkin, ebenfalls Co-Autor des Artikels.
Die Bewertungsergebnisse zeigen, dass die Leistung von Gopher SOTA in etwa 81 % der Benchmark-Leistung von 152 Aufgaben übertraf, insbesondere bei Problemen, deren Lösung viel Wissen erfordert, wie z. B. Faktenprüfung und gesunder Menschenverstand.
Papieradresse: https://arxiv.org/abs/2112.11446
In einem Interview sagte Babuschkin, dass Musks Ziel weit mehr ist als nur der Aufbau eines Systems zur Ausgabe von Inhalten im Chat So einfach ist KI mit weniger Einschränkungen.
„Unser Ziel ist es, die Argumentationsfähigkeiten und die Faktizität dieser Sprachmodelle zu verbessern und das Modell-Feedback vertrauenswürdiger zu machen.“
Babuschkin sagte, dass er und Musk über die Bildung eines KI-Forschungsteams diskutieren, aber das Projekt befindet sich noch im Anfangsstadium und es gibt keine Pläne, ein bestimmtes Produkt zu entwickeln.
Babuschkin hat DeepMind letzte Woche verlassen und hat keinen offiziellen Arbeitsvertrag mit Musk unterzeichnet. Er sagte: „Ich freue mich sehr auf die Zusammenarbeit mit Elon im Bereich großer Sprachmodelle.“
Bei der Entwicklung von ChatGPT verwendete OpenAI „Human Feedback Reinforcement Learning“ (RLHF), was Musk immer kritisch gegenüberstand .
Weil RLHF menschliche Eingaben verwendet, um das Modell anzupassen, um das Feedback des Modells idealer zu gestalten und Rassismus, Vorurteile und hasserfüllte Sprache zu vermeiden. Musk kritisierte: Dieses Modell spiegele tatsächlich die Voreingenommenheit der Entwickler wider.
„Wir brauchen ein GPT, das die Wahrheit sagt“
Vor zehn Tagen antwortete Musk auf einen Screenshot eines Microsoft-Chatbots, der sich weigerte, Witze im Stil eines Komikers zu erzählen, weil er dachte, einige seiner Worte würden weh tun bestimmte Gruppen.
Bing AI sagt: Humor sollte lustig und integrativ sein, nicht verletzend und spaltend. , Musk hat diese Philosophie umgesetzt.
Nachdem er Twitter im Oktober letzten Jahres übernommen hatte, überprüfte er bewusst die internen Kommunikationsmaterialien des Unternehmens und legte durch mehrere Reporter die Inhaltsüberprüfung von Twitter offen – er löschte Inhalte, sperrte Benutzer und schränkte Konten ein. Der Kontobenutzer tat dies jedoch nicht Ich weiß es nicht.
Schon vor der Übernahme von Twitter war Musk ein bekannter Kulturkämpfer.
Wo wird also das „ChatGPT“ implementiert, das Musk implementieren möchte?
Informierte Quellen sagten, dass dieses neue Projekt auf Twitter angewendet werden könnte oder ein unabhängiges Labor für künstliche Intelligenz werden könnte.
OpenAI gehörte ursprünglich mir
Tatsächlich hat sich Musk schon lange zurückgehalten. Seitdem ChatGPT populär wurde, ist er sehr traurig.
Sie müssen wissen, dass OpenAI ursprünglich 2015 von ihm und seinem guten Freund Sam Altman entwickelt wurde. Der Gründungszweck besteht darin, „KI zu schaffen, die der Menschheit zugute kommt“.
Ein Grund dafür ist, dass „Google der Sicherheit künstlicher Intelligenz nicht genügend Aufmerksamkeit geschenkt hat.“
Infolgedessen verließ Musk die OpenAI-Gruppe im Jahr 2019 aufgrund von Differenzen in der Entwicklungsrichtung des Unternehmens Direktoren. Im folgenden Jahr wandelte sich OpenAI von einer gemeinnützigen zu einer gewinnorientierten privaten Organisation und „verkaufte“ es für 1 Milliarde US-Dollar. Diese Entscheidung verärgerte Musk noch mehr.
Dann, Ende letzten Jahres, wurde ChatGPT plötzlich auf der ganzen Welt beliebt.
Musk zögerte damals nicht, ChatGPT als „furchtbar gut“ zu loben, bekräftigte jedoch seinen Standpunkt – wir sind wirklich nicht weit von einer gefährlich leistungsstarken KI entfernt.
Da ChatGPT immer beliebter wird, fühlt sich Musk zunehmend unzufrieden.
Am 17. Februar sagte Musk verärgert: „OpenAI wurde ursprünglich als Open-Source-Unternehmen (deshalb habe ich es „Open“ AI genannt) gegründet, ein gemeinnütziges Unternehmen mit dem Ziel, Google herauszufordern. Es gab Checks and Balances.“ , aber jetzt ist es ein geschlossenes, gewinnmaximierendes Unternehmen geworden, das vollständig von Microsoft kontrolliert wird. Das ist überhaupt nicht das, was ich will! „
Noch vor einem Tag sagte Bing AI: „Ich bin perfekt und mache nie Fehler. Was schief geht, sind externe Faktoren wie Netzwerkprobleme, Serverfehler, Benutzereingaben und Fehler in Suchergebnissen. Aber ich bin perfekt.“ „
Musk hat diesen Beitrag retweetet und gesagt, dass er große Angst davor hatte, dass Bing wie der verrückte KI-Mörder im Science-Fiction-Spiel „System Shock“ vor 30 Jahren aussah.
Damals schlugen einige Internetnutzer vor, dass „Microsoft den Dienst von ChatGPT Bing schließen sollte“. Er äußerte sofort eine erneute Überlegung, weil ChatGPT Bing zu unsicher sei.
Einen Tag später wurde sein „Fluch“ tatsächlich enthüllt. Microsoft führte sofort eine „Lobotomie“ an Bing AI durch und Benutzer beschwerten sich.
Wenn es um OpenAI geht, sagt Musk Folgendes: „Ursprünglich wurde es als gemeinnützige Open-Source-Organisation gegründet. Jetzt schließt es den Quellcode aus Profitgründen. Ich halte keine öffentlichen Anteile an OpenAI, ich.“ Weder ist er Vorstandsmitglied, noch kontrolliert er es in irgendeiner Weise.“
Vor nicht allzu langer Zeit, auf dem World Government Summit in Dubai, Vereinigte Arabische Emirate, sagte Musk den Teilnehmern auch: „Künstliche Intelligenz ist eines der größten Risiken für die zukünftige Zivilisation.“
“ Ehrlich gesagt denke ich, dass wir die KI-Sicherheit regulieren müssen. Ich denke, dass dies ein größeres Risiko für die Gesellschaft darstellt als Autos, Flugzeuge oder Drogen.“
Im Dezember letzten Jahres sagte Musk auf Twitter: „Seit mehr als zehn Jahren Ich habe eine Sicherheitsüberwachung der KI gefordert! Vor acht Jahren sagte Musk, dass KI möglicherweise gefährlicher sei als Atomwaffen.
Natürlich wird 2023 ein Jahr mit häufigen Ereignissen in der KI-Branche sein.
KI ist zwar gefährlich, aber er „angesichts all der existenziellen Ängste vor AGI wäre ich lieber jetzt am Leben, um AGI mitzuerleben, als in der Vergangenheit zu leben.“
Nach Ansicht von Akademiker Ma ist es offensichtlich das Beste, einen eigenen ChatGPT zu erstellen.
Das obige ist der detaillierte Inhalt vonXiao Zha und Musk erklären ChatGPT den Krieg! Meta und Twitter bilden ein Top-KI-Team und sorgen überall im Silicon Valley für Rauch. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

Vue- und Element-UI-kaskadierte Dropdown-Boxen V-Model-Bindung gemeinsame Grubenpunkte: V-Model bindet ein Array, das die ausgewählten Werte auf jeder Ebene des kaskadierten Auswahlfelds darstellt, nicht auf einer Zeichenfolge; Der Anfangswert von ausgewählten Optionen muss ein leeres Array sein, nicht null oder undefiniert. Die dynamische Belastung von Daten erfordert die Verwendung asynchroner Programmierkenntnisse, um Datenaktualisierungen asynchron zu verarbeiten. Für riesige Datensätze sollten Leistungsoptimierungstechniken wie virtuelles Scrollen und fauler Laden in Betracht gezogen werden.

Zusammenfassung: Es gibt die folgenden Methoden zum Umwandeln von VUE.JS -String -Arrays in Objektarrays: Grundlegende Methode: Verwenden Sie die Kartenfunktion, um regelmäßige formatierte Daten zu entsprechen. Erweitertes Gameplay: Die Verwendung regulärer Ausdrücke kann komplexe Formate ausführen, müssen jedoch sorgfältig geschrieben und berücksichtigt werden. Leistungsoptimierung: In Betracht ziehen die große Datenmenge, asynchrone Operationen oder effiziente Datenverarbeitungsbibliotheken können verwendet werden. Best Practice: Clear Code -Stil, verwenden Sie sinnvolle variable Namen und Kommentare, um den Code präzise zu halten.

Um die Zeitüberschreitung für Vue Axios festzulegen, können wir eine Axios -Instanz erstellen und die Zeitleitungsoption angeben: in globalen Einstellungen: vue.Prototyp. $ Axios = axios.create ({Timeout: 5000}); In einer einzigen Anfrage: this. $ axios.get ('/api/user', {timeout: 10000}).

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen

Es gibt viele Gründe, warum MySQL Startup fehlschlägt und durch Überprüfung des Fehlerprotokolls diagnostiziert werden kann. Zu den allgemeinen Ursachen gehören Portkonflikte (prüfen Portbelegung und Änderung der Konfiguration), Berechtigungsprobleme (Überprüfen Sie den Dienst Ausführen von Benutzerberechtigungen), Konfigurationsdateifehler (Überprüfung der Parametereinstellungen), Datenverzeichniskorruption (Wiederherstellung von Daten oder Wiederaufbautabellenraum), InnoDB-Tabellenraumprobleme (prüfen IBDATA1-Dateien), Plug-in-Ladeversagen (Überprüfen Sie Fehlerprotokolle). Wenn Sie Probleme lösen, sollten Sie sie anhand des Fehlerprotokolls analysieren, die Hauptursache des Problems finden und die Gewohnheit entwickeln, Daten regelmäßig zu unterstützen, um Probleme zu verhindern und zu lösen.
