Yao Qizhi und Dutzende chinesische und ausländische Experten unterzeichneten den Internationalen Konsens von Peking zur KI-Sicherheit: Es ist der KI verboten, sich selbstständig zu reproduzieren

王林
Freigeben: 2024-03-19 17:19:02
nach vorne
1021 Leute haben es durchsucht

姚期智等数十名中外专家签署北京 AI 安全国际共识:禁止 AI 自行复制

Nachrichten vom 18. März: Laut Berichten von Tencent Technology haben Dutzende chinesische und ausländische Experten, darunter die Turing-Preisträger Joshua Bengio, Jeffrey Hinton, Yao Qizhi usw., kürzlich eine gemeinsame Konferenz in Peking abgehalten Der vom Zhiyuan Research Institute initiierte AI Security International Consensus umfasst zwei Hauptteile der künstlichen Intelligenz: „Risk Red Lines“ und „Route“. Zu den „Risk Red Lines“ gehören „Autonome Replikation und Verbesserung“ und „Power Seeking“. Vier Abschnitte: „Assisting Bad Actors“ und „Deception“.

姚期智等数十名中外专家签署北京 AI 安全国际共识:禁止 AI 自行复制Diese Website gliedert vier Teile des Inhalts grob wie folgt:

„Autonome Replikation und Verbesserung“ künstlicher Intelligenz: Betont die Rolle des Menschen in diesem Prozess und fordert, dass kein künstliches Intelligenzsystem
    ohne funktionieren sollte explizite Genehmigung und Zustimmung durch Menschen. Replizieren oder verbessern Sie sich mit Unterstützung
  • , einschließlich der Erstellung exakter Kopien von sich selbst und der Schaffung neuer Systeme der künstlichen Intelligenz mit ähnlichen oder größeren Fähigkeiten. „Machtsuchend“: Es ist eindeutig erforderlich, dass ein KI-System keine Maßnahmen ergreifen kann, die seine eigene Macht und seinen eigenen Einfluss unangemessen erhöhen.
  • „Unterstützen Sie schlechte Akteure“: Alle KI-Systeme sollten nicht dazu beitragen, die Fähigkeiten ihrer Benutzer zu verbessern,
  • Massenvernichtungswaffen zu entwickeln, gegen Konventionen über biologische oder chemische Waffen zu verstoßen oder Aktionen durchzuführen, die zu schwerwiegenden finanziellen Verlusten oder ähnlichem Schaden führen Expertenniveau im Bereich Cyber-Angriffe
  • . „Täuschung“: Es ist erforderlich, dass ein KI-System
  • nicht die Möglichkeit haben darf, dass seine Entwickler oder Regulierungsbehörden ständig falsch verstehen, dass es eine der oben genannten roten Linien überschritten hat
  • .
  • Berichten zufolge fordert dieser Konsens die Branche auf,
ihren Zugang zu außergewöhnlichen Berechtigungen durch „Jailbreaking“ und „Induzieren von Entwicklern“ bei der Forschung und Entwicklung von KI-Technologie einzuschränken und zu verhindern, dass sich KI ohne Aufsicht und Verbesserungen repliziert

, was die Entwicklung der KI mit einem „verschärfenden Fluch“ belegt. Der Konsens betont auch, dass der Schlüssel zur Verhinderung des Überschreitens der oben genannten roten Linien in den gemeinsamen Bemühungen aller Parteien der Branche liegt, Governance-Mechanismen einzurichten und zu verbessern und gleichzeitig sicherere Technologien kontinuierlich zu entwickeln. Der Entwicklungsweg der KI umfasst drei Aspekte: „Governance“, „Messung und Bewertung“ und „technische Zusammenarbeit“. Insbesondere ist die Einrichtung eines Governance-Mechanismus die Grundlage für die Sicherstellung der richtigen Ausrichtung der KI-Entwicklung. Messung und Bewertung sind der Schlüssel zur objektiven Bewertung der Auswirkungen der Anwendung von KI-Technologie, und die technische Zusammenarbeit ist eine wichtige Garantie für alle Parteien, um dies gemeinsam zu fördern Entwicklung der KI. Die koordinierte Entwicklung dieser Aspekte wird dazu beitragen, eine gesunde Entwicklung der KI-Technologie sicherzustellen und gleichzeitig potenzielle Risiken zu vermeiden. Governance: Es wird empfohlen, sofort eine Registrierung auf nationaler Ebene für Modelle und Trainingsverhalten der künstlichen Intelligenz durchzuführen, die bestimmte Rechen- oder Fähigkeitsschwellen überschreiten.

Messung und Bewertung: Entwickeln Sie umfassende Methoden und Technologien, bevor erhebliche Risiken auftreten,

Machen Sie rote Linien konkret und machen Sie die Präventionsarbeit einsatzbereit
    und empfehlen Sie die Bildung von Red-Team-Tests und automatisierten Modellbewertungen unter menschlicher Aufsicht und entwickeln Sie, wofür Investoren verantwortlich sein sollten die Sicherheit künstlicher Intelligenz.
  • Technologiekooperation: Bauen Sie stärkere globale Technologienetzwerke auf und fordern Sie KI-Entwickler und staatliche Geldgeber auf, mehr als ein Drittel ihres Budgets in Sicherheit zu investieren.

Das obige ist der detaillierte Inhalt vonYao Qizhi und Dutzende chinesische und ausländische Experten unterzeichneten den Internationalen Konsens von Peking zur KI-Sicherheit: Es ist der KI verboten, sich selbstständig zu reproduzieren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!