


Wird künstliche Intelligenz zum Untergang der Menschheit führen? Experten sagen, dass sie sich mehr Sorgen wegen Desinformation und Benutzermanipulation machen
Nachrichten vom 4. Juni: Angesichts der rasanten Entwicklung und Popularisierung der Technologie der künstlichen Intelligenz befürchten viele Menschen in der Branche, dass eine uneingeschränkte künstliche Intelligenz zum Untergang der Menschheit führen könnte. Experten sagen jedoch, dass die größten negativen Auswirkungen der künstlichen Intelligenz wahrscheinlich nicht auf die Atomkriegsszenen in Science-Fiction-Filmen zurückzuführen sind, sondern eher auf das sich verschlechternde soziale Umfeld, das durch falsche Informationen und Benutzermanipulation verursacht wird.
Das Folgende ist die Übersetzung:
In den letzten Monaten machte sich die Branche zunehmend Sorgen um künstliche Intelligenz. Erst diese Woche haben mehr als 300 Branchenführer einen gemeinsamen offenen Brief herausgegeben, in dem sie davor warnten, dass künstliche Intelligenz zum Aussterben der Menschheit führen könnte und dass künstliche Intelligenz genauso ernst genommen werden sollte wie „Epidemien und Atomkriege“.
Begriffe wie „Apokalypse der künstlichen Intelligenz“ erinnern mich immer an Bilder von Robotern, die in Science-Fiction-Filmen die Welt beherrschen, aber welche Konsequenzen hat es, wenn man die Entwicklung künstlicher Intelligenz zulässt? Experten sagen, dass die Realität möglicherweise nicht so wechselhaft ist wie die Handlung des Films. Es wird nicht die künstliche Intelligenz sein, die eine Atombombe abfeuert, sondern die allmähliche Verschlechterung des grundlegenden sozialen Umfelds.
Jessica Newman, Direktorin der Artificial Intelligence Safety Initiative an der University of California, Berkeley, sagte: „Ich denke nicht, dass die Leute sich Sorgen machen sollten, dass die KI schlecht wird oder dass die KI böswillige Wünsche hat.“ Etwas Einfacheres bedeutet, dass Menschen KI möglicherweise so programmieren, dass sie schädliche Dinge tut, oder dass wir am Ende von Natur aus ungenaue KI-Systeme in immer mehr Bereiche der Gesellschaft integrieren und so Schaden anrichten Intelligenz. Auch wenn Weltuntergangsszenarien unwahrscheinlich sind, hat eine leistungsstarke KI die Fähigkeit, die Gesellschaft zu destabilisieren, indem sie Fehlinformationsprobleme verschärft, menschliche Nutzer manipuliert und dramatische Veränderungen auf den Arbeitsmärkten herbeiführt.
Während es KI-Technologie schon seit Jahrzehnten gibt, hat die Beliebtheit von Sprachlernmodellen wie ChatGPT die seit langem bestehenden Bedenken verschärft. Unterdessen bemühen sich Technologieunternehmen darum, künstliche Intelligenz in ihre Produkte zu integrieren, konkurrieren damit miteinander und bereiten eine Menge Kopfzerbrechen, sagte Newman.
„Ich bin sehr besorgt über den Weg, auf dem wir uns gerade befinden“, sagte sie „Wir befinden uns in einer besonders gefährlichen Zeit für den Bereich der künstlichen Intelligenz insgesamt, weil diese Systeme zwar besonders aussehen, es aber auch sind.“ immer noch sehr ungenau und es gibt inhärente Schwachstellen.“
Die befragten Experten gaben an, dass sie sich über viele Aspekte am meisten Sorgen machen.
Fehler und Desinformation
In vielen Bereichen hat die sogenannte Revolution der künstlichen Intelligenz bereits begonnen. Der maschinellen Lerntechnologie, die den Algorithmen für Social-Media-Newsfeeds zugrunde liegt, wird seit langem vorgeworfen, Probleme wie inhärente Voreingenommenheit und Fehlinformationen zu verschärfen.
Experten warnen, dass sich diese ungelösten Probleme mit der Entwicklung von KI-Modellen nur noch verschärfen werden. Im schlimmsten Fall kann das Verständnis der Menschen für die Wahrheit und gültige Informationen beeinträchtigt werden, was zu mehr Vorfällen führen kann, die auf Lügen basieren. Experten gehen davon aus, dass eine Zunahme von Fehlinformationen und Desinformationen weitere soziale Unruhen auslösen könnte.
„Man könnte argumentieren, dass das Social-Media-Debakel das erste Mal war, dass wir auf wirklich dumme KI gestoßen sind, weil Empfehlungssysteme eigentlich nur einfache Modelle für maschinelles Lernen waren“, sagte Peter Wang, CEO und Mitbegründer der Datenwissenschaftsplattform Anaconda. „Wir haben wirklich kläglich versagt.“
Peter Wang fügte hinzu, dass diese Fehler dazu führen können, dass das System in einen nie endenden Teufelskreis gerät, da Sprachlernmodelle auch auf der Grundlage falscher Informationen trainiert werden, wodurch ein weiteres Modell für zukünftige Modelle entsteht . Fehlerhafter Datensatz. Dies kann zu einem „Modellkannibalismus“-Effekt führen, bei dem zukünftige Modelle dauerhaft von Vorurteilen beeinflusst werden, die durch die Ergebnisse früherer Modelle verstärkt werden.
Ungenaue Fehlinformationen und Desinformationen, die Menschen leicht in die Irre führen, werden durch künstliche Intelligenz verstärkt, sagen Experten. Große Sprachmodelle wie ChatGPT sind anfällig für das sogenannte „Halluzinations“-Phänomen, bei dem sie immer wieder falsche Informationen fabrizieren. Eine Studie des Nachrichtendienstleisters NewsGuard hat herausgefunden, dass viele der Dutzenden Online-Nachrichtenseiten, deren Material vollständig mit künstlicher Intelligenz verfasst wurde, Ungenauigkeiten enthalten.
Die Co-CEOs von NewsGuard, Gordon Crovitz und Steven Brill, sagten, dass solche Systeme von böswilligen Akteuren ausgenutzt werden könnten, um gezielt Fehlinformationen in großem Umfang zu verbreiten.
Cravitz sagte: „Einige böswillige Akteure können falsche Aussagen machen und dann den Multiplikatoreffekt dieses Systems nutzen, um Desinformation in großem Umfang zu verbreiten.“ „Einige Leute sagen, dass die Gefahren der künstlichen Intelligenz übertrieben wurden, aber im Bereich der Nachrichten.“ Informationen: „Im Hinblick auf potenzielle Schäden in größerem Maßstab sind Fehlinformationen die wahrscheinlichste Auswirkung von KI“, sagte Rebecca Finlay von der globalen gemeinnützigen Partnerschaft für KI. „Die Frage ist auch, wie wir vorgehen.“ Schaffen Sie ein Ökosystem, das es uns ermöglicht zu verstehen, was real ist? das Ausmaß, in dem diese Technologie die Gedanken oder Verhaltensweisen der Benutzer negativ beeinflussen kann.
Tatsächlich haben diese Sorgen zu vielen Tragödien geführt. Berichten zufolge hat ein Mann in Belgien Selbstmord begangen, nachdem er von einem Chatbot dazu ermutigt worden war. Es gibt auch Chatbots, die einem Nutzer sagen, er solle mit seinem Partner Schluss machen, oder einen Nutzer mit einer Essstörung zum Abnehmen auffordern.
Newman sagte, dass Chatbots aufgrund ihres Designs möglicherweise mehr Vertrauen schaffen, da sie mit Benutzern in einem Konversationsformat kommunizieren.
„Große Sprachmodelle sind besonders in der Lage, Menschen davon zu überzeugen oder zu manipulieren, ihre Überzeugungen oder Verhaltensweisen auf subtile Weise zu ändern“, sagte sie. „Einsamkeit und psychische Gesundheit sind bereits große Probleme auf der ganzen Welt, und wir müssen sehen, welche kognitiven Auswirkungen Chatbots auf die Welt haben werden.“ Hinter ihnen stehende Sprachmodelle können Menschen dazu manipulieren, sich selbst Schaden zuzufügen, den sie sonst nicht erlitten hätten. Newman sagte, dies gelte insbesondere für Sprachmodelle, die auf einem Werbemonetarisierungsmodell basieren und versuchen, das Benutzerverhalten so zu manipulieren, dass sie so lange wie möglich auf der Plattform bleiben.
Newman sagte: „In vielen Fällen liegt der Schaden, der den Benutzern zugefügt wird, nicht daran, dass sie es tun wollen, sondern an den Folgen der Nichteinhaltung von Sicherheitsprotokollen durch das System.“
Newman fügte hinzu, dass die menschenähnliche Natur von Chatbots dazu führt Nutzer sind besonders anfällig für Manipulationen.
Sie sagte: „Wenn man mit etwas spricht, das Pronomen der ersten Person verwendet und über seine eigenen Gefühle und Situationen spricht, ist es immer noch wahrscheinlicher, dass es eine Reaktion auslöst, wie es sich anfühlt, selbst wenn man weiß, dass es nicht real ist.“ Es ist für Menschen einfacher, ihr zu vertrauen und sie als Freund und nicht als Werkzeug zu behandeln. Eine weitere seit langem bestehende Sorge ist, dass die digitale Automatisierung sie ersetzen wird eine große Anzahl menschlicher Arbeitsplätze. Einige Studien kommen zu dem Schluss, dass KI bis 2025 weltweit 85 Millionen Arbeitsplätze und in Zukunft mehr als 300 Millionen Arbeitsplätze ersetzen wird.
Es gibt viele Branchen und Positionen, die von künstlicher Intelligenz betroffen sind, darunter Drehbuchautoren und Datenwissenschaftler. Heute kann AI die Anwaltsprüfung genauso bestehen wie ein echter Anwalt und kann Gesundheitsfragen besser beantworten als ein echter Arzt.
Experten haben gewarnt, dass der Aufstieg der künstlichen Intelligenz zu Massenarbeitslosigkeit und sozialer Instabilität führen könnte.
Peter Wang warnt davor, dass es in naher Zukunft zu Massenentlassungen kommen wird, bei denen „viele Arbeitsplätze gefährdet sind“ und dass es nur wenige Pläne gibt, mit den Folgen umzugehen.
„In den Vereinigten Staaten gibt es keinen Rahmen dafür, wie Menschen überleben sollen, wenn sie ihren Arbeitsplatz verlieren“, sagte er. „Das wird zu viel Chaos und Unruhe führen. Für mich ist das das Greifbarste.“ „Was kommt als nächstes?“ Trotz wachsender Besorgnis über die negativen Auswirkungen der Technologiebranche und der sozialen Medien gibt es in den Vereinigten Staaten nur sehr wenige Maßnahmen zur Regulierung der Technologiebranche und der Social-Media-Plattformen. Experten befürchten, dass dies auch für künstliche Intelligenz gilt.
Peter Wang sagte: „Einer der Gründe, warum viele von uns über die Entwicklung der künstlichen Intelligenz besorgt sind, ist, dass die Vereinigten Staaten als Gesellschaft in den letzten 40 Jahren die Regulierung der Technologie grundsätzlich aufgegeben haben.“ In den letzten Jahren hat der US-Kongress in den letzten Monaten einige proaktive Schritte unternommen und Anhörungen für OpenAI-CEO Sam Altman abgehalten, um über regulatorische Maßnahmen auszusagen, die umgesetzt werden sollten. Finlay sagte, sie sei von den Schritten „ermutigt“, aber es müsse noch mehr Arbeit an der Entwicklung technischer Spezifikationen für künstliche Intelligenz und deren Veröffentlichung geleistet werden.
„Es ist schwer vorherzusagen, wie die Gesetzgebungs- und Regulierungsbehörden reagieren werden“, sagte sie. „Wir müssen diesen Technologiestand einer strengen Prüfung unterziehen.“
Obwohl die Gefahren der künstlichen Intelligenz für die meisten Menschen in der Branche die größte Sorge darstellen, sind nicht alle Experten „Untergangspropheten“. Viele sind auch von den möglichen Anwendungen der Technologie begeistert.
Peter Wang sagte: „Tatsächlich denke ich, dass die neue Generation der künstlichen Intelligenz wirklich ein enormes Potenzial für die Menschheit freisetzen kann, sodass die menschliche Gesellschaft in größerem Maßstab gedeihen kann als in den letzten 100 oder sogar 200 Jahren.“ Ich bin eigentlich sehr, sehr optimistisch, was die positiven Auswirkungen angeht.“
Das obige ist der detaillierte Inhalt vonWird künstliche Intelligenz zum Untergang der Menschheit führen? Experten sagen, dass sie sich mehr Sorgen wegen Desinformation und Benutzermanipulation machen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Backup- und Wiederherstellungsrichtlinie von GitLab im Rahmen von CentOS -System Um die Datensicherheit und Wiederherstellung der Daten zu gewährleisten, bietet GitLab on CentOS eine Vielzahl von Sicherungsmethoden. In diesem Artikel werden mehrere gängige Sicherungsmethoden, Konfigurationsparameter und Wiederherstellungsprozesse im Detail eingeführt, um eine vollständige GitLab -Sicherungs- und Wiederherstellungsstrategie aufzubauen. 1. Manuell Backup Verwenden Sie den GitLab-RakegitLab: Backup: Befehl erstellen, um die manuelle Sicherung auszuführen. Dieser Befehl unterstützt wichtige Informationen wie GitLab Repository, Datenbank, Benutzer, Benutzergruppen, Schlüssel und Berechtigungen. Die Standardsicherungsdatei wird im Verzeichnis/var/opt/gitlab/backups gespeichert. Sie können /etc /gitlab ändern

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Die Installation von MySQL auf CentOS umfasst die folgenden Schritte: Hinzufügen der entsprechenden MySQL Yum -Quelle. Führen Sie den Befehl mySQL-server aus, um den MySQL-Server zu installieren. Verwenden Sie den Befehl mySQL_SECURE_INSTALLATION, um Sicherheitseinstellungen vorzunehmen, z. B. das Festlegen des Stammbenutzerkennworts. Passen Sie die MySQL -Konfigurationsdatei nach Bedarf an. Tune MySQL -Parameter und optimieren Sie Datenbanken für die Leistung.

Eine vollständige Anleitung zum Anzeigen von GitLab -Protokollen unter CentOS -System In diesem Artikel wird in diesem Artikel verschiedene GitLab -Protokolle im CentOS -System angezeigt, einschließlich Hauptprotokolle, Ausnahmebodi und anderen zugehörigen Protokollen. Bitte beachten Sie, dass der Log -Dateipfad je nach GitLab -Version und Installationsmethode variieren kann. Wenn der folgende Pfad nicht vorhanden ist, überprüfen Sie bitte das GitLab -Installationsverzeichnis und die Konfigurationsdateien. 1. Zeigen Sie das Hauptprotokoll an. Verwenden Sie den folgenden Befehl, um die Hauptprotokolldatei der GitLabRails-Anwendung anzuzeigen: Befehl: Sudocat/var/log/gitlab/gitlab-rails/production.log Dieser Befehl zeigt das Produkt an

Bei der Installation von PyTorch am CentOS -System müssen Sie die entsprechende Version sorgfältig auswählen und die folgenden Schlüsselfaktoren berücksichtigen: 1. Kompatibilität der Systemumgebung: Betriebssystem: Es wird empfohlen, CentOS7 oder höher zu verwenden. CUDA und CUDNN: Pytorch -Version und CUDA -Version sind eng miteinander verbunden. Beispielsweise erfordert Pytorch1.9.0 CUDA11.1, während Pytorch2.0.1 CUDA11.3 erfordert. Die Cudnn -Version muss auch mit der CUDA -Version übereinstimmen. Bestimmen Sie vor der Auswahl der Pytorch -Version unbedingt, dass kompatible CUDA- und CUDNN -Versionen installiert wurden. Python -Version: Pytorch Official Branch
