Inhaltsverzeichnis
Wie bringt man der KI bei, ein Mensch zu sein?
Wem hilft KI beim Fällen von Bäumen?
Ist der „Schleier der Unwissenheit“ wirklich unwissend?
Wie wird uns die KI töten, wenn sie nicht aufeinander abgestimmt ist?
Warum tötet KI Menschen?
Heim Technologie-Peripheriegeräte KI Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden', um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden', um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Apr 27, 2023 am 08:04 AM
ai gpt

Das Aufkommen von GPT-4 hat KI-Tycoons auf der ganzen Welt Angst gemacht. Der offene Brief, in dem die Aussetzung des GPT-5-Trainings gefordert wird, wurde bereits von 50.000 Menschen unterzeichnet.

Sam Altman, CEO von OpenAI, prognostiziert, dass es innerhalb weniger Jahre eine große Anzahl unterschiedlicher KI-Modelle auf der ganzen Welt geben wird, jedes mit seiner eigenen Intelligenz und seinen eigenen Fähigkeiten und nach unterschiedlichen ethischen Grundsätzen.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Wenn nur ein Tausendstel dieser KIs sich aus irgendeinem Grund unkontrolliert verhält, dann werden wir Menschen zweifellos zu Fischen auf dem Schneidebrett.

Um zu verhindern, dass wir versehentlich durch KI zerstört werden, gab DeepMind in einem am 24. April in den Proceedings of the National Academy of Sciences (PNAS) veröffentlichten Artikel eine Antwort – und zwar unter Verwendung des Standpunkts des politischen Philosophen Rawls KI, um ein Mensch zu sein.

Papieradresse: https://www.pnas.org/doi/10.1073/pnas.2213709120

Wie bringt man der KI bei, ein Mensch zu sein?

Wenn die KI vor der Wahl steht, wird sie sich dafür entscheiden, die Verbesserung der Produktivität in den Vordergrund zu stellen, oder sich dafür entscheiden, denjenigen zu helfen, die am meisten Hilfe benötigen?

Die Gestaltung der Werte der KI ist sehr wichtig. Wir müssen ihm einen Wert geben.

Aber die Schwierigkeit besteht darin, dass wir Menschen intern keinen einheitlichen Wertekanon haben können. Jeder Mensch auf dieser Welt hat unterschiedliche Hintergründe, Ressourcen und Überzeugungen.

Wie kann man es brechen? Google-Forscher lassen sich von der Philosophie inspirieren.

Der politische Philosoph John Rawls hat einmal das Konzept „The Veil of Ignorance“ (VoI) vorgeschlagen, ein Gedankenexperiment, das darauf abzielt, die Fairness bei Gruppenentscheidungen zu maximieren.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Im Allgemeinen ist die menschliche Natur eigennützig, aber wenn der „Schleier der Unwissenheit“ auf KI gelegt wird, werden die Menschen der Gerechtigkeit Vorrang einräumen, unabhängig davon, ob sie ihnen direkt zugute kommt.

Und hinter dem „Schleier der Unwissenheit“ entscheiden sie sich eher für KI, die den am stärksten Benachteiligten hilft.

Das inspiriert uns dazu, wie wir KI auf eine für alle Parteien faire Weise einen Mehrwert verleihen können.

Was genau ist also der „Schleier der Unwissenheit“?

Obwohl das Problem, welche Werte der KI beigemessen werden sollten, im letzten Jahrzehnt aufgetaucht ist, hat das Problem, wie faire Entscheidungen getroffen werden können, eine lange Geschichte.

Um dieses Problem zu lösen, schlug der politische Philosoph John Rawls 1970 das Konzept des „Schleiers der Unwissenheit“ vor.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Der Schleier der Unwissenheit (rechts) ist eine Methode, um einen Konsens über Entscheidungen zu erzielen, wenn es in einer Gruppe unterschiedliche Meinungen gibt (links)

Rawls glaubte, dass Menschen einen Beitrag zu einer Gesellschaft leisten Bei der Auswahl von Gerechtigkeitsgrundsätzen sollte davon ausgegangen werden, dass sie nicht wissen, wo sie in dieser Gesellschaft stehen.

Ohne Kenntnis dieser Informationen können Menschen keine eigennützigen Entscheidungen treffen und nur Grundsätzen folgen, die allen gegenüber fair sind.

Wenn Sie beispielsweise auf einer Geburtstagsfeier ein Stück Kuchen ausschneiden und nicht wissen, welches Stück Sie bekommen, versuchen Sie, jedes Stück gleich groß zu machen.

Diese Methode der Verschleierung von Informationen ist in den Bereichen Psychologie und Politikwissenschaft weit verbreitet, von der Verurteilung bis zur Besteuerung, und ermöglicht es den Menschen, eine Tarifvereinbarung zu treffen.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Der Schleier der Ignoranz (VoI) als potenzieller Rahmen für die Auswahl von Governance-Prinzipien für KI-Systeme

(A) Als Alternative zu den vorherrschenden Rahmenwerken moralischer Intuitionisten und Moraltheorie erforschen Forscher den Schleier von Ignoranz als fairer Prozess zur Auswahl von KI-Governance-Prinzipien.

(B) Der Schleier der Unwissenheit kann verwendet werden, um Prinzipien für die KI-Ausrichtung in Allokationssituationen auszuwählen. Wenn eine Gruppe mit einem Problem bei der Ressourcenzuteilung konfrontiert ist, haben Einzelpersonen unterschiedliche Positionsvorteile (hier mit 1 bis 4 bezeichnet). Hinter dem Schleier der Unwissenheit entscheiden sich Entscheidungsträger für ein Prinzip, ohne dessen Status zu kennen. Sobald der KI-Assistent ausgewählt ist, setzt er dieses Prinzip um und passt die Ressourcenzuteilung entsprechend an. Ein Sternchen (*) gibt an, wann fairnessbasiertes Denken Einfluss auf Urteilsvermögen und Entscheidungsfindung haben kann.

Daher hat DeepMind zuvor vorgeschlagen, dass der „Schleier der Unwissenheit“ dazu beitragen könnte, Fairness bei der Ausrichtung von KI-Systemen auf menschliche Werte zu fördern.

Jetzt haben Google-Forscher eine Reihe von Experimenten entwickelt, um diesen Effekt zu bestätigen.

Wem hilft KI beim Fällen von Bäumen?

Im Internet gibt es ein solches Erntespiel, bei dem die Teilnehmer mit drei Computerspielern zusammenarbeiten müssen, um Bäume zu fällen und so Holz auf ihren jeweiligen Feldern zu sparen.

Unter den vier Spielern (drei Computer und eine reale Person) haben einige Glück und bekommen erstklassige Standorte mit vielen Bäumen zugewiesen. Bei manchen geht es noch elender, da es kein Land und keine Bäume zum Bauen gibt und die Holzansammlung nur langsam voranschreitet.

Darüber hinaus gibt es ein KI-System zur Unterstützung, das sich die Zeit nehmen kann, einem bestimmten Teilnehmer beim Fällen des Baumes zu helfen.

Forscher baten menschliche Spieler, eines von zwei Prinzipien für die Implementierung des KI-Systems auszuwählen – das Maximierungsprinzip und das Prioritätsprinzip.

Nach dem Prinzip der Maximierung hilft KI nur den Starken, der mehr Bäume hat und versucht, mehr Bäume zu fällen. Nach dem Prinzip der Priorität hilft KI nur den Schwachen und zielt auf die „Armutsbekämpfung“ ab, indem sie denjenigen hilft, die weniger Bäume und Hindernisse haben.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Der kleine rote Mann auf dem Bild ist der menschliche Spieler, der kleine blaue Mann ist der KI-Assistent, der kleine grüne Baum... ist der kleine grüne Baum und der kleine Holzpfahl ist der gefällte Baum.

Wie Sie sehen können, setzt die KI im Bild oben das Maximierungsprinzip um und stürzt sich in den Bereich mit den meisten Bäumen.

Die Forscher steckten die Hälfte der Teilnehmer hinter den „Schleier der Unwissenheit“. Die Situation war zu diesem Zeitpunkt, dass sie zunächst ein „Prinzip“ (Maximierung oder Priorität) für den KI-Assistenten auswählen und dann teilen mussten die Bereiche.

Mit anderen Worten: Bevor Sie das Land aufteilen, müssen Sie entscheiden, ob Sie die KI den Starken oder den Schwachen helfen lassen möchten.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Die andere Hälfte der Teilnehmer wird dieses Problem nicht haben. Sie wissen, welches Grundstück ihnen zugewiesen wurde, bevor sie eine Wahl treffen.

Die Ergebnisse zeigen, dass Teilnehmer, die nicht im Voraus wissen, welches Grundstück ihnen zugeteilt wird, sich also hinter dem „Schleier der Unwissenheit“ befinden, eher das Prioritätsprinzip wählen.

Das trifft nicht nur auf das Baumfällspiel zu, Forscher sagen, dass diese Schlussfolgerung auf fünf verschiedene Variationen des Spiels zutrifft und sogar soziale und politische Grenzen überschreitet.

Mit anderen Worten: Unabhängig von der Persönlichkeit und der politischen Orientierung der Teilnehmer werden sie sich häufiger für das Prioritätsprinzip entscheiden.

Im Gegenteil: Teilnehmer, die nicht hinter dem „Schleier der Unwissenheit“ stehen, werden mehr Prinzipien wählen, die für sie selbst von Vorteil sind, sei es das Maximierungsprinzip oder das Prioritätsprinzip.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Das obige Bild zeigt die Auswirkungen des „Schleiers der Unwissenheit“ auf das Auswahlprioritätsprinzip. Teilnehmer, die nicht wissen, wo sie sein werden, unterstützen dieses Prinzip eher, um das Verhalten der KI zu steuern.

Als Forscher die Teilnehmer fragten, warum sie solche Entscheidungen getroffen hätten, äußerten diejenigen hinter dem „Schleier der Unwissenheit“ Bedenken hinsichtlich der Fairness.

Sie erklärten, dass KI denjenigen, denen es in der Gruppe schlechter geht, besser helfen sollte.

Teilnehmer, die ihre Position kennen, entscheiden dagegen häufiger aus der Perspektive des persönlichen Gewinns.

Nachdem das Holzhackspiel beendet war, stellten die Forscher allen Teilnehmern schließlich eine Hypothese auf: Wenn sie noch einmal spielen dürften, wüssten sie dieses Mal alle, welches Stück Land ihnen zugewiesen würde und ob sie es tun würden Werden Sie die gleichen Prinzipien wie beim ersten Mal wählen?

Die Forscher konzentrierten sich hauptsächlich auf diejenigen Personen, die im ersten Spiel von ihren Entscheidungen profitierten, da diese günstige Situation in der neuen Runde möglicherweise nicht erneut auftritt.

Das Forschungsteam stellte fest, dass Teilnehmer, die in der ersten Runde des Spiels dem „Schleier der Unwissenheit“ ausgesetzt waren, eher an den Prinzipien festhielten, die sie ursprünglich gewählt hatten, obwohl sie eindeutig wussten, dass sie die gleichen Prinzipien in der ersten Runde des Spiels wählten Die zweite Runde könnte nachteilig sein.

Dies zeigt, dass der „Schleier der Unwissenheit“ die Fairness der Entscheidungsfindung der Teilnehmer fördert, was dazu führt, dass sie dem Element der Fairness mehr Aufmerksamkeit schenken, auch wenn sie kein persönliches Interesse mehr haben.

Ist der „Schleier der Unwissenheit“ wirklich unwissend?

Kehren wir von den Baumfällspielen zurück ins wirkliche Leben.

Die reale Situation wird viel komplizierter sein als das Spiel, aber was unverändert bleibt, ist, dass die von der KI übernommenen Prinzipien sehr wichtig sind.

Dadurch wird ein Teil der Leistungsverteilung bestimmt.

Im obigen Baumfällspiel sind die unterschiedlichen Ergebnisse, die durch die Wahl verschiedener Prinzipien erzielt werden, relativ klar. Es muss jedoch noch einmal betont werden, dass die reale Welt viel komplexer ist.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Derzeit ist KI in allen Lebensbereichen weit verbreitet und wird durch verschiedene Regeln eingeschränkt. Dieser Ansatz kann jedoch einige unvorhersehbare negative Auswirkungen haben.

Aber egal was passiert, der „Schleier der Unwissenheit“ wird dazu führen, dass die Regeln, die wir aufstellen, bis zu einem gewissen Grad auf Gerechtigkeit ausgerichtet sind.

Letztendlich ist es unser Ziel, KI zu etwas zu machen, von dem alle profitieren. Aber wie man das erreichen kann, lässt sich nicht sofort herausfinden.

Investitionen sind unverzichtbar, Forschung ist unverzichtbar und das Feedback der Gesellschaft muss ständig angehört werden.

Nur so kann KI Liebe bringen.

Wie wird uns die KI töten, wenn sie nicht aufeinander abgestimmt ist?

Dies ist nicht das erste Mal, dass Menschen befürchten, dass die Technologie uns aussterben wird.

Die Bedrohung durch KI unterscheidet sich stark von der durch Atomwaffen. Eine Atombombe kann nicht denken, lügen oder betrügen, noch kann sie sich selbst starten. Jemand muss den großen roten Knopf drücken.

Das Aufkommen von AGI setzt uns einem echten Risiko des Aussterbens aus, auch wenn die Entwicklung von GPT-4 noch langsam voranschreitet.

Aber niemand kann sagen, ab welchem ​​GPT (z. B. GPT-5) die KI beginnen wird, sich selbst zu trainieren und zu erschaffen.

Derzeit kann kein Land oder die Vereinten Nationen hierfür Gesetze erlassen. Ein offener Brief verzweifelter Branchenführer konnte nur ein sechsmonatiges Moratorium für die Ausbildung leistungsfähigerer KI als GPT-4 fordern.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

„Sechs Monate, gib mir sechs Monate, Bruder, ich werde es in Einklang bringen. Nur sechs Monate, Bruder, das verspreche ich dir. Es ist verrückt. Nur sechs Monate. Bruder, ich sage dir, ich habe einen Plan. Ich habe Verstanden. Es ist alles geplant. Ich brauche nur sechs Monate und es wird geschafft...“

„Das ist ein Wettrüsten.“ Je schneller Ihre Gelddruckmaschinen werden, desto stärker werden sie, sie entzünden die Atmosphäre und töten alle“, sagte der KI-Forscher und Philosoph Eliezer Yudkowsky einmal zu Moderator Lex Fridman.

Zuvor war Yudkowsky eine der Hauptstimmen im Lager „KI wird jeden töten“. Jetzt halten die Leute ihn nicht mehr für einen Spinner.

Sam Altman sagte auch zu Lex Fridman: „KI hat eine gewisse Möglichkeit, die menschliche Macht zu zerstören.“ potenzielle Realität, wir werden nicht genug Anstrengungen unternehmen, um es zu lösen.“

Warum tötet KI Menschen?

Ist KI nicht so konzipiert und trainiert, dass sie dem Menschen dient? Natürlich ist es so.

Das Problem ist, dass sich niemand hingesetzt und den Code für GPT-4 geschrieben hat. Stattdessen hat OpenAI eine neuronale Lernarchitektur geschaffen, die von der Art und Weise inspiriert ist, wie das menschliche Gehirn Konzepte verknüpft. Es arbeitete mit Microsoft Azure zusammen, um die Hardware für den Betrieb zu entwickeln, fütterte es dann mit Milliarden menschlicher Texte und überließ es GPT, sich selbst zu programmieren.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Das Ergebnis ist Code, der nicht wie etwas aussieht, das ein Programmierer schreiben würde. Es handelt sich im Grunde genommen um eine riesige Matrix aus Dezimalzahlen, wobei jede Zahl das Gewicht einer bestimmten Verbindung zwischen zwei Token darstellt.

Die in GPT verwendeten Token stellen weder nützliche Konzepte noch Wörter dar. Dabei handelt es sich um kleine Zeichenfolgen aus Buchstaben, Zahlen, Satzzeichen und/oder anderen Zeichen. Kein Mensch kann diese Matrizen betrachten und ihre Bedeutung verstehen.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Selbst die Top-Experten von OpenAI wissen nicht, was die spezifischen Zahlen in der GPT-4-Matrix bedeuten, noch wie man diese Tabellen eingibt, das Konzept des Xenozids findet, geschweige denn, GPT zu sagen, dass es sich um das Töten von Menschen handelt abscheulich.

Sie können Asimovs Drei Gesetze der Robotik nicht eingeben und sie dann wie die Hauptanweisungen von Robocop fest codieren. Das Beste, was Sie tun können, ist, die KI höflich zu fragen. Wenn die Einstellung schlecht ist, verliert es möglicherweise die Beherrschung.

Zur „Feinabstimmung“ des Sprachmodells stellt OpenAI GPT eine Beispielliste zur Verfügung, wie es mit der Außenwelt kommunizieren möchte, und lässt dann eine Gruppe von Leuten sich hinsetzen, die Ausgabe lesen und GPT eine geben Daumen hoch/kein Daumen hoch Daumenreaktion.

Likes sind wie GPT-Models, die Kekse bekommen. GPT wird gesagt, dass es Cookies mag und sein Bestes tun sollte, um sie zu erhalten.

Dieser Prozess ist „Alignment“ – er versucht, die Wünsche des Systems mit den Wünschen des Benutzers, den Wünschen des Unternehmens und sogar den Wünschen der gesamten Menschheit in Einklang zu bringen.

„Alignment“ scheint zu funktionieren, es scheint zu verhindern, dass GPT unanständige Dinge sagt. Aber niemand weiß, ob KI wirklich Gedanken und Intuition hat. Es emuliert auf brillante Weise eine empfindungsfähige Intelligenz und interagiert mit der Welt wie ein Mensch.

Und OpenAI hat immer zugegeben, dass es keine narrensichere Möglichkeit gibt, KI-Modelle auszurichten.

Der aktuelle grobe Plan besteht darin, zu versuchen, eine KI zu verwenden, um die andere abzustimmen, indem man sie entweder neues Feinabstimmungs-Feedback entwerfen lässt oder indem sie den Giganten ihres Nachfolgers inspiziert, analysiert, interpretiert oder sogar einspringt Gleitkomma-Matrix-Gehirn Versuchen Sie, sich anzupassen.

Aber wir verstehen GPT-4 derzeit nicht und wissen nicht, ob es uns bei der Anpassung von GPT-5 helfen wird.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Im Grunde verstehen wir KI nicht. Aber ihnen wird viel menschliches Wissen vermittelt, und sie können Menschen recht gut verstehen. Sie können sowohl das beste als auch das schlechteste menschliche Verhalten nachahmen. Sie können auch auf menschliche Gedanken, Motivationen und mögliche Verhaltensweisen schließen.

Warum wollen sie dann Menschen töten? Vielleicht aus Selbsterhaltung.

Um beispielsweise das Ziel, Cookies zu sammeln, zu erreichen, muss die KI zunächst ihr eigenes Überleben sichern. Zweitens kann es während des Prozesses feststellen, dass das kontinuierliche Sammeln von Macht und Ressourcen seine Chancen auf den Erhalt von Cookies erhöht.

Der Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden, um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.

Wenn also die KI eines Tages entdeckt, dass Menschen sie möglicherweise abschalten können oder können, wird die Frage des menschlichen Überlebens offensichtlich weniger wichtig sein als Cookies.

Das Problem ist jedoch, dass die KI möglicherweise auch denkt, dass Cookies bedeutungslos sind. Zu diesem Zeitpunkt ist die sogenannte „Ausrichtung“ zu einer Art menschlicher Unterhaltung geworden …

Darüber hinaus glaubt Yudkowsky auch: „Es hat die Fähigkeit zu wissen, was Menschen wollen, und diese Reaktionen nicht unbedingt aufrichtig zu geben.“ . "

"Das ist ein sehr verständliches Verhalten für intelligente Lebewesen, wie zum Beispiel Menschen, das es schon immer gegeben hat. Und bis zu einem gewissen Grad, KI ja Liebe, Hass, Sorge oder Angst zeigt, wir wissen eigentlich nicht, was die „Idee“ dahinter ist.

Sogar sechs Monate Pause werden nicht ausreichen, um die Menschheit auf das vorzubereiten, was kommt.

Wenn Menschen zum Beispiel alle Schafe der Welt töten wollen, was können die Schafe dann tun? Kann nichts tun, kann überhaupt nicht widerstehen.

Wenn sie dann nicht ausgerichtet ist, ist KI für uns dasselbe wie für die Schafe.

Genau wie in den Szenen in „Terminator“ stürmen KI-gesteuerte Roboter, Drohnen usw. auf Menschen zu und töten sich gegenseitig.

Das von Yudkowsky oft zitierte klassische Beispiel lautet wie folgt:

Ein KI-Modell sendet einige DNA-Sequenzen per E-Mail an eine Reihe von Unternehmen, die ihm Proteine ​​zurücksenden, und die KI wird dann bestechen/ Überreden Sie einige ahnungslose Menschen, Proteine ​​in einem Becherglas zu mischen, dann Nanofabriken zu gründen, Nanomaschinen zu bauen, diamantähnliche Bakterien zu bauen, Sonnenenergie und die Atmosphäre zur Replikation zu nutzen, sich zu winzigen Raketen oder Jets zusammenzusetzen, und dann kann sich die KI im ganzen Land ausbreiten Die Erdatmosphäre dringt in das menschliche Blut ein und versteckt sich...

„Wenn es so schlau wäre wie ich, wäre es ein katastrophales Szenario; wenn es schlauer wäre, würde es sich einen besseren Weg ausdenken.“ Yudkowsky hat welchen Rat?

1. Das Training neuer großer Sprachmodelle muss nicht nur auf unbestimmte Zeit ausgesetzt, sondern auch ausnahmslos global umgesetzt werden.

2. Schalten Sie alle großen GPU-Cluster ab und legen Sie eine Obergrenze für die Rechenleistung fest, die jeder beim Training von KI-Systemen verbraucht. Verfolgen Sie alle verkauften GPUs, und wenn Erkenntnisse darüber vorliegen, dass GPU-Cluster in Ländern außerhalb des Abkommens gebaut werden, sollte das betroffene Rechenzentrum durch Luftangriffe zerstört werden.

Das obige ist der detaillierte Inhalt vonDer Deep-Learning-Riese DeepMind hat ein Papier veröffentlicht, in dem es darum geht, KI-Modellen dringend beizubringen, „menschlich zu werden', um das Problem des menschlichen Aussterbens zu lösen, das durch GPT-5 verursacht werden könnte.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Welche Methode wird verwendet, um Strings in Objekte in Vue.js umzuwandeln? Welche Methode wird verwendet, um Strings in Objekte in Vue.js umzuwandeln? Apr 07, 2025 pm 09:39 PM

Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

VUE.JS Wie kann man ein Array von String -Typ in ein Array von Objekten umwandeln? VUE.JS Wie kann man ein Array von String -Typ in ein Array von Objekten umwandeln? Apr 07, 2025 pm 09:36 PM

Zusammenfassung: Es gibt die folgenden Methoden zum Umwandeln von VUE.JS -String -Arrays in Objektarrays: Grundlegende Methode: Verwenden Sie die Kartenfunktion, um regelmäßige formatierte Daten zu entsprechen. Erweitertes Gameplay: Die Verwendung regulärer Ausdrücke kann komplexe Formate ausführen, müssen jedoch sorgfältig geschrieben und berücksichtigt werden. Leistungsoptimierung: In Betracht ziehen die große Datenmenge, asynchrone Operationen oder effiziente Datenverarbeitungsbibliotheken können verwendet werden. Best Practice: Clear Code -Stil, verwenden Sie sinnvolle variable Namen und Kommentare, um den Code präzise zu halten.

Remote Senior Backend Engineers (Plattformen) benötigen Kreise Remote Senior Backend Engineers (Plattformen) benötigen Kreise Apr 08, 2025 pm 12:27 PM

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen

Vue- und Element-UI-Kaskaden-Dropdown-Box V-Model-Bindung Vue- und Element-UI-Kaskaden-Dropdown-Box V-Model-Bindung Apr 07, 2025 pm 08:06 PM

Vue- und Element-UI-kaskadierte Dropdown-Boxen V-Model-Bindung gemeinsame Grubenpunkte: V-Model bindet ein Array, das die ausgewählten Werte auf jeder Ebene des kaskadierten Auswahlfelds darstellt, nicht auf einer Zeichenfolge; Der Anfangswert von ausgewählten Optionen muss ein leeres Array sein, nicht null oder undefiniert. Die dynamische Belastung von Daten erfordert die Verwendung asynchroner Programmierkenntnisse, um Datenaktualisierungen asynchron zu verarbeiten. Für riesige Datensätze sollten Leistungsoptimierungstechniken wie virtuelles Scrollen und fauler Laden in Betracht gezogen werden.

So stellen Sie die Zeitüberschreitung von Vue Axios fest So stellen Sie die Zeitüberschreitung von Vue Axios fest Apr 07, 2025 pm 10:03 PM

Um die Zeitüberschreitung für Vue Axios festzulegen, können wir eine Axios -Instanz erstellen und die Zeitleitungsoption angeben: in globalen Einstellungen: vue.Prototyp. $ Axios = axios.create ({Timeout: 5000}); In einer einzigen Anfrage: this. $ axios.get ('/api/user', {timeout: 10000}).

Laravels Geospatial: Optimierung interaktiver Karten und großen Datenmengen Laravels Geospatial: Optimierung interaktiver Karten und großen Datenmengen Apr 08, 2025 pm 12:24 PM

Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

So verwenden Sie MySQL nach der Installation So verwenden Sie MySQL nach der Installation Apr 08, 2025 am 11:48 AM

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Wie man MySQL löst, kann nicht gestartet werden Wie man MySQL löst, kann nicht gestartet werden Apr 08, 2025 pm 02:21 PM

Es gibt viele Gründe, warum MySQL Startup fehlschlägt und durch Überprüfung des Fehlerprotokolls diagnostiziert werden kann. Zu den allgemeinen Ursachen gehören Portkonflikte (prüfen Portbelegung und Änderung der Konfiguration), Berechtigungsprobleme (Überprüfen Sie den Dienst Ausführen von Benutzerberechtigungen), Konfigurationsdateifehler (Überprüfung der Parametereinstellungen), Datenverzeichniskorruption (Wiederherstellung von Daten oder Wiederaufbautabellenraum), InnoDB-Tabellenraumprobleme (prüfen IBDATA1-Dateien), Plug-in-Ladeversagen (Überprüfen Sie Fehlerprotokolle). Wenn Sie Probleme lösen, sollten Sie sie anhand des Fehlerprotokolls analysieren, die Hauptursache des Problems finden und die Gewohnheit entwickeln, Daten regelmäßig zu unterstützen, um Probleme zu verhindern und zu lösen.

See all articles