


Big Boss wechselt Job, Microsoft und Google streiten! Der Artikel, der vor fast einem Monat geschrieben wurde, war eigentlich eine „Gottes Prophezeiung'
Weniger als eine Woche nach der Veröffentlichung dieses Analyseartikels am 27. Januar kündigten Google und Microsoft nacheinander an, KI-Chatbots in Suchmaschinen zu integrieren.
Rückblickend gibt es überall Bumerangs.
Plötzlich fühlst du dich erleuchtet?
Tech-Giganten waren bei der Entwicklung von KI schon immer vorsichtig. Die Entstehung von ChatGPT machte sie jedoch berühmt.
Der Grundstein für die Entwicklung künstlicher Intelligenz wird von großen Unternehmen wie Google, Meta und Microsoft gelegt.
Allerdings bringen unternehmungslustige kleine Unternehmen die KI in schwindelerregender Geschwindigkeit an die Öffentlichkeit und überraschen diese Giganten damit.
Angesichts des anhaltenden Rückgangs der Technologieaktien und des Drucks, der durch die Popularität von ChatGPT entsteht, scheinen die Hersteller im Silicon Valley plötzlich „aufgeklärt“ zu sein und sind bereit, mehr „Reputationsrisiken“ einzugehen.
Als derzeit beliebtester Star hat ChatGPT OpenAI dabei geholfen, Milliarden von Dollar an Investitionen vom Vater von Microsoft anzuziehen.
Und ChatGPT selbst wird wahrscheinlich in Microsofts beliebte Bürosoftware Family Bucket integriert und an Unternehmen verkauft.
Laut anonymen Interviews, die das Wall Street Journal mit sechs ehemaligen Google- und Meta-Mitarbeitern durchgeführt hat, hat die wachsende Aufmerksamkeit, die ChatGPT erhalten hat, auch Technologiegiganten wie Meta und Google unter Druck gesetzt, sich keine Sorgen mehr über Sicherheitsprobleme zu machen.
Meta-Mitarbeiter gaben bekannt, dass aus dem internen Memo des Unternehmens hervorgeht, dass das Unternehmen darauf drängt, den KI-Genehmigungsprozess zu beschleunigen und schnell die Vorteile der neuesten Technologie zu nutzen.
Die New York Times berichtete, dass Google, nachdem es den Erfolg von ChatGPT erkannte, nicht nur einen roten Code herausgab, sondern auch einen „grünen Kanal“ einführte, um den Prozess der Bewertung und Minderung potenzieller Schäden zu verkürzen.
Das Risiko ist zu groß, abwarten und sehen
Tatsächlich hatte Meta drei Monate vor dem Debüt von ChatGPT einen ähnlichen Chatbot veröffentlicht.
Aber im Gegensatz zu ChatGPT, das in fünf Tagen eine Million Nutzer überstieg, ist dieser Chatbot namens Blenderbot sehr langweilig.
Das muss sogar Metas Chef-KI-Wissenschaftler Yann LeCun zugeben. „Darf ich den Hund an einem heißen Tag in den Kühlschrank stellen?“ Es ist so langweilig, weil wir es sehr sicher gemacht haben.“ Er sagte, der Grund für die laue öffentliche Reaktion sei, dass Meta „zu vorsichtig“ bei der Moderation von Inhalten sei.
Es gibt eine Verschwörungstheorie, die erklärt: Blenderbot ist absichtlich so langweilig. Meta hätte eine bessere KI machen können, hätte vielleicht eine bessere KI haben können, aber sie haben beschlossen, eine schlechte KI zu veröffentlichen.
Ja, eines der Probleme, mit denen große Technologieunternehmen schon immer konfrontiert waren, besteht darin, dass der Überprüfungsmechanismus für die ethischen Auswirkungen künstlicher Intelligenz nicht so ausgereift ist wie Datenschutz oder Datensicherheit.
Normalerweise hoffen Teams aus Forschern und Ingenieuren, dass die von ihnen vorgeschlagenen technologischen Innovationen schneller in Produkte umgesetzt werden, in die Öffentlichkeit gelangen oder in die bestehende Infrastruktur des Unternehmens integriert werden können. Es ist nicht schwer vorstellbar, dass es im Aufstiegsprozess leicht zu Konflikten mit dem Team im Unternehmen kommt, das sich der „verantwortungsvollen künstlichen Intelligenz“ widmet. Als beispielsweise Project Maven, ein Vertrag zur Bereitstellung von Computer Vision für Pentagon-Drohnen, unterzeichnet wurde, protestierten viele Mitarbeiter. Und auch Duplex, ein Projekt, das Restaurants anrufen kann, um Reservierungen vorzunehmen, ohne zu verraten, dass es sich um einen Roboter handelt, hat bei den Mitarbeitern Widerstand ausgelöst. Zu diesem Zweck hat Google 2018 offiziell die „Sieben Prinzipien“ der künstlichen Intelligenz veröffentlicht. Artikeladresse: https://blog.google/technology/ai/ai-principles/
Cohere-Mitbegründer Nick Frosst, der seit drei Jahren bei Google Brain arbeitet Er sagte, dass große Unternehmen wie Google und Microsoft sich stärker auf den Einsatz von KI konzentrieren werden, um ihre bestehenden Geschäftsmodelle zu verbessern.
Das „Reputationsrisiko“, das Radikalismus mit sich bringt, können sich Giganten schließlich nicht leisten.
Besonders nachdem Microsofts Tay einen katastrophalen Ausfall erlitten hatte, wurden sie besonders vorsichtig.
Im Jahr 2016 wurde Tay innerhalb eines Tages, nachdem er online war, schnell versiegelt. Weil jemand diesen Chatbot gebeten hat, einen Rassenkrieg zu beginnen und die Nazis reinzuwaschen. Damals gab es einen Aufruhr.
Im Jahr 2022 wurde Metas Galactica nur drei Tage nach ihrer Online-Veröffentlichung heruntergeladen. Internetnutzer haben die Zusammenfassung der wissenschaftlichen Forschung als sehr ungenau und manchmal voreingenommen kritisiert.
Allerdings haben große Hersteller auch ihre eigene Meinung dazu.
Meta Basic Artificial Intelligence Research Manager Joelle Pineau sagte: „Künstliche Intelligenz schreitet unglaublich schnell voran, und wir müssen nicht nur einen effizienten Überprüfungsprozess sicherstellen, sondern auch die richtigen Entscheidungen treffen und die besten Ergebnisse veröffentlichen. KI.“ Modelle und Produkte, die für unsere Community geeignet sind.“ „Diese Innovationen müssen möglicherweise berücksichtigt werden. Wir werden unsere KI-Technologie weiterhin intern testen, um sicherzustellen, dass sie nützlich und sicher ist.“ wird mit OpenAI zusammenarbeiten, um zusätzliche Sicherheitsmaßnahmen zu entwickeln.
„Microsoft engagiert sich seit vielen Jahren für die Weiterentwicklung des Bereichs der künstlichen Intelligenz und wird Benutzer öffentlich dazu anleiten, diese Technologien auf unserer Plattform auf verantwortungsvolle und ethische Weise zu erstellen und zu nutzen.“
Nicht aufgeholt mit den heißen
Aber das Problem ist, dass Sorgen kommen und gehen und ich im Handumdrehen zurückgelassen werde.Das vergangene Jahr 2022 kann als das erste Jahr von AIGC bezeichnet werden. Wir haben die Explosion von DALL-E 2, Stable Diffusion und ChatGPT miterlebt.
Vor allem nach der Veröffentlichung von ChatGPT durch OpenAI sind nach und nach Stimmen laut geworden, dass generative künstliche Intelligenz Google tötet –
Wie wir alle wissen, kann ChatGPT einfache Antworten auf verständlichere Weise bereitstellen, ohne dass Benutzer darauf klicken müssen diverse Links.
Ein sehr interessanter Punkt ist jedoch, dass die zugrunde liegenden Technologien dieser KIs tatsächlich von Giganten wie Google entwickelt wurden.
Aber in den letzten Jahren sind diese großen Hersteller immer mysteriöser geworden. Sie werden neue Modelle ankündigen oder Demos anbieten, aber keine vollständigen Produkte.
Gleichzeitig haben Forschungslabore wie OpenAI „kontinuierlich“ die neueste Version der KI auf den Markt gebracht. Da fragt man sich auch, was die großen Hersteller so langsam machen. Googles Sprachmodell LaMDA ist beispielsweise schon seit mehreren Jahren auf dem Markt.
In einem so großen Umfeld müssen sich Ingenieure also mit der Frustration auseinandersetzen, dass sie die neue Technologie, an deren Erforschung sie so hart gearbeitet haben, nicht übernehmen können.
Einige Mitarbeiter sagten, dass sie in den letzten Jahren die Integration von Chat-Funktionen in Suchmaschinen vorgeschlagen hätten, aber keine Rückmeldung erhalten hätten.
Sie verstehen jedoch auch, dass Google berechtigte Gründe hat, seine Suchprodukte nicht überstürzt zu ändern.
Denn wenn Nutzeranfragen mit klaren Antworten beantwortet werden, wird nicht nur wertvolle Online-Werbefläche komprimiert, sondern Unternehmen müssen auch zusätzliche Verantwortung übernehmen, wenn von Nutzern Probleme entdeckt werden.
Natürlich ist Google nicht das einzige Unternehmen, das auf dieses Problem stößt.
Mit der Sorge des Unternehmens wegen schlechter PR mussten sich auch Meta-Mitarbeiter auseinandersetzen, sagen mit der Angelegenheit vertraute Personen.
Konkret müssen Mitarbeiter vor der Einführung eines neuen Produkts oder der Veröffentlichung eines Forschungsberichts Fragen zu den potenziellen Risiken einer Offenlegung ihrer Arbeit beantworten, einschließlich der Frage, was zu tun ist, wenn sie von der Öffentlichkeit missverstanden wird.
Wie hat OpenAI gewonnen?
In diesem Zusammenhang sagte Mark Riedl, Computerprofessor und Experte für maschinelles Lernen am Georgia Institute of Technology, dass ChatGPT auf einer grundlegenden technischen Ebene möglicherweise nicht unbedingt besser als Google oder Meta sei.
Aber OpenAI hat einen entscheidenden Vorteil: das Modell der Öffentlichkeit zugänglich zu machen.
In den letzten zwei Jahren konnte OpenAI also kontinuierlich echtes Feedback von Benutzern erhalten.
Geben Sie zum Beispiel „Gefällt mir“ für die Antworten, mit denen Sie zufrieden sind, oder „Gefällt mir nicht“ für diejenigen, die sich unangemessen anfühlen.
Und das ist der Grundstein, der ChatGPT so leistungsstark macht – „Reinforcement Learning Based on Human Feedback“ (RLHF).
Im Gegensatz dazu ist die Google-Suche, der Herausforderer, nach einem Vierteljahrhundert durch Werbung und Vermarkter, die versuchen, das System auszutricksen, aufgebläht.
Der Technologieexperte Can Duruk betonte: „Googles langjähriges Monopol hat sein einst verlockendes Sucherlebnis in eine müllgefüllte, von Suchmaschinen gesteuerte Hölle degeneriert.“
Natürlich gibt es auch sehr wichtig - das „Reputationsrisiko“, über das wir ursprünglich gesprochen haben.
Ein Google-Mitarbeiter sagte, dass OpenAI in den Augen der Öffentlichkeit neuer und aufregender sei als große Unternehmen wie wir und selbst wenn es Fehler mache, werde es nicht so sehr kritisiert und geprüft.
Der Chef ging, und Google wurde in die Enge getrieben
Tatsächlich war Google bereits vor 10 Jahren unangefochtener Marktführer auf diesem Gebiet.
Im Jahr 2014 erwarb das Unternehmen DeepMind, ein Spitzenlabor für künstliche Intelligenz.
Im Jahr 2015 war das Framework für maschinelles Lernen TensorFlow Open Source.
Bis 2016 versprach Pichai, Google zu einem „AI first“-Unternehmen zu machen.
Allerdings werden die Talente hinter diesen Entwicklungen immer unruhiger.
Im letzten Jahr oder so sind viele große Namen zu flexibleren Startups wie OpenAI und Stable Diffusion übergegangen.
Startups, die auf großen Sprachmodellen basieren, darunter Character.AI, Cohere, Adept, Inflection.AI und Inworld AI, werden alle von den besten KI-Forschern von Google entwickelt.
Darüber hinaus gibt es Such-Startups, die ähnliche Modelle zur Entwicklung von Chat-Schnittstellen verwenden, wie etwa Neeva, das vom ehemaligen Google-Manager Sridhar Ramaswamy geführt wird.
Unter ihnen sind Noam Shazeer, der Gründer von Character.AI, und Aidan Gomez, der Mitbegründer von Cohere, Schlüsselfiguren bei der Entwicklung von Transformer und anderen zentralen Architekturen für maschinelles Lernen.
Große Unternehmen wie Google und Microsoft konzentrieren sich im Allgemeinen auf den Einsatz künstlicher Intelligenz, um ihre massiven bestehenden Geschäftsmodelle zu verbessern, sagte Nick Frosst, der drei Jahre lang bei Google Brain arbeitete, bevor er Cohere gründete, ein Startup mit Sitz in Toronto erstellt umfangreiche Sprachmodelle, die maßgeschneiderte Dienste für Unternehmen bereitstellen können. Einer seiner Mitbegründer ist Aidan Gomez.
„Dieser Bereich wächst so schnell, und es ist für mich keine Überraschung, dass die Vorreiter kleine Unternehmen sind“, sagte Frost.
David Ha, ein bekannter Forscher, sagte auf Twitter: „Wenn Google nicht aufwacht und mit der Veröffentlichung eigener Produkte für künstliche Intelligenz beginnt, wird es als die ‚Whampoa Military Academy‘ in die Geschichte eingehen, die ausgebildet hat.“ eine ganze Generation von Forschern und Ingenieuren für maschinelles Lernen.“
Vielleicht ändern sich die Zeiten wirklich.
Rumman Chowdhury leitete das Ethikteam für maschinelles Lernen bei Twitter, bis Musk es im November auflöste.
Chowdhury sagte, dass Kritiker und Ethiker zunehmend auf Ablehnung stoßen werden, da große Unternehmen wie Google und Meta darum kämpfen, mit OpenAI gleichzuziehen.
Das obige ist der detaillierte Inhalt vonBig Boss wechselt Job, Microsoft und Google streiten! Der Artikel, der vor fast einem Monat geschrieben wurde, war eigentlich eine „Gottes Prophezeiung'. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Backup- und Wiederherstellungsrichtlinie von GitLab im Rahmen von CentOS -System Um die Datensicherheit und Wiederherstellung der Daten zu gewährleisten, bietet GitLab on CentOS eine Vielzahl von Sicherungsmethoden. In diesem Artikel werden mehrere gängige Sicherungsmethoden, Konfigurationsparameter und Wiederherstellungsprozesse im Detail eingeführt, um eine vollständige GitLab -Sicherungs- und Wiederherstellungsstrategie aufzubauen. 1. Manuell Backup Verwenden Sie den GitLab-RakegitLab: Backup: Befehl erstellen, um die manuelle Sicherung auszuführen. Dieser Befehl unterstützt wichtige Informationen wie GitLab Repository, Datenbank, Benutzer, Benutzergruppen, Schlüssel und Berechtigungen. Die Standardsicherungsdatei wird im Verzeichnis/var/opt/gitlab/backups gespeichert. Sie können /etc /gitlab ändern

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Die Installation von MySQL auf CentOS umfasst die folgenden Schritte: Hinzufügen der entsprechenden MySQL Yum -Quelle. Führen Sie den Befehl mySQL-server aus, um den MySQL-Server zu installieren. Verwenden Sie den Befehl mySQL_SECURE_INSTALLATION, um Sicherheitseinstellungen vorzunehmen, z. B. das Festlegen des Stammbenutzerkennworts. Passen Sie die MySQL -Konfigurationsdatei nach Bedarf an. Tune MySQL -Parameter und optimieren Sie Datenbanken für die Leistung.

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Eine vollständige Anleitung zum Anzeigen von GitLab -Protokollen unter CentOS -System In diesem Artikel wird in diesem Artikel verschiedene GitLab -Protokolle im CentOS -System angezeigt, einschließlich Hauptprotokolle, Ausnahmebodi und anderen zugehörigen Protokollen. Bitte beachten Sie, dass der Log -Dateipfad je nach GitLab -Version und Installationsmethode variieren kann. Wenn der folgende Pfad nicht vorhanden ist, überprüfen Sie bitte das GitLab -Installationsverzeichnis und die Konfigurationsdateien. 1. Zeigen Sie das Hauptprotokoll an. Verwenden Sie den folgenden Befehl, um die Hauptprotokolldatei der GitLabRails-Anwendung anzuzeigen: Befehl: Sudocat/var/log/gitlab/gitlab-rails/production.log Dieser Befehl zeigt das Produkt an

Bei der Installation und Konfiguration von GitLab in einem CentOS -System ist die Auswahl der Datenbank von entscheidender Bedeutung. GitLab ist mit mehreren Datenbanken kompatibel, aber PostgreSQL und MySQL (oder MariADB) werden am häufigsten verwendet. Dieser Artikel analysiert Datenbankauswahlfaktoren und enthält detaillierte Installations- und Konfigurationsschritte. Datenbankauswahlhandbuch Bei der Auswahl einer Datenbank müssen Sie die folgenden Faktoren berücksichtigen: PostgreSQL: Die Standarddatenbank von GitLab ist leistungsstark, hat eine hohe Skalierbarkeit, unterstützt komplexe Abfragen und Transaktionsverarbeitung und ist für große Anwendungsszenarien geeignet. MySQL/Mariadb: Eine beliebte relationale Datenbank, die in Webanwendungen häufig verwendet wird, mit einer stabilen und zuverlässigen Leistung. MongoDB: NoSQL -Datenbank, spezialisiert auf
