Die letzten Tage kann man als „ereignisreiche Zeit“ für OpenAI bezeichnen.
Aufgrund der Sicherheitsprobleme, die ChatGPT und GPT-4 verursachen können, hat OpenAI einige Kritik und Hindernisse von außen erhalten:
Am 6. April veröffentlichte OpenAI offiziell einen Blogartikel mit dem Titel „Unser Ansatz zur KI-Sicherheit“, in dem es darum geht, „Systeme mit künstlicher Intelligenz sicher zu bauen, bereitzustellen und zu nutzen“.
OpenAI setzt sich dafür ein, dass starke künstliche Intelligenz sicher und allgemein (für die menschliche Gesellschaft) von Nutzen ist. Unsere KI-Tools bieten den Menschen heute viele Vorteile.
Benutzer aus der ganzen Welt berichten uns, dass ChatGPT dabei hilft, ihre Produktivität zu steigern, ihre Kreativität zu steigern und ein maßgeschneidertes Lernerlebnis zu bieten.
Wir sind uns auch darüber im Klaren, dass diese Tools wie jede Technologie mit echten Risiken verbunden sind – deshalb arbeiten wir hart daran, sicherzustellen, dass die Sicherheit auf allen Ebenen in unsere Systeme integriert ist.
1. Bauen Sie zunehmend sichere Systeme für künstliche Intelligenz auf.
Bevor wir ein neues System veröffentlichen, werden wir strenge Tests durchführen, externe Experten in das Feedback einbeziehen und uns bemühen, das Verhalten des Modells mithilfe von Techniken wie Verstärkungslernen mit menschlichem Feedback zu verbessern und zu etablieren umfangreiche Sicherheits- und Überwachungssysteme.
Nachdem beispielsweise unser neuestes Modell, GPT-4, die Schulung abgeschlossen hatte, verbrachten alle unsere Mitarbeiter mehr als sechs Monate damit, es vor der Veröffentlichung sicherer und konsistenter zu machen.
Wir glauben, dass leistungsstarke Systeme der künstlichen Intelligenz strengen Sicherheitsbewertungen unterzogen werden sollten. Um sicherzustellen, dass dieser Ansatz umgesetzt wird, ist eine Regulierung erforderlich, und wir arbeiten aktiv mit der Regierung zusammen, um herauszufinden, wie diese Regulierung am besten aussehen könnte.
2. Lernen Sie aus der Praxis, um die Sicherheitsmaßnahmen zu verbessern.
Wir sind bestrebt, vorhersehbare Risiken vor dem Einsatz zu verhindern. Im Labor können wir jedoch nur begrenzte Erkenntnisse gewinnen. Trotz umfassender Forschung und Tests können wir nicht vorhersagen, wie viele Menschen unsere Technologie nutzbringend nutzen oder wie sie missbraucht werden. Aus diesem Grund glauben wir, dass das Lernen aus der Praxis eine Schlüsselkomponente für die Entwicklung und Veröffentlichung immer sichererer KI-Systeme im Laufe der Zeit ist.
Wir veröffentlichen nach und nach neue KI-Systeme mit zahlreichen Sicherheitsvorkehrungen, um sie einer stetig wachsenden Bevölkerung zugänglich zu machen und basierend auf dem, was wir lernen, kontinuierlich zu verbessern.
Wir bieten unsere leistungsfähigsten Modelle über unsere eigenen Dienste und APIs an, sodass Entwickler diese Technologie direkt in ihren Anwendungen nutzen können. Dies ermöglicht es uns, Missbrauch zu überwachen und entsprechende Maßnahmen zu ergreifen sowie kontinuierlich Abhilfemaßnahmen für die tatsächliche Art und Weise zu entwickeln, wie Menschen unsere Systeme missbrauchen, und nicht nur Theorien darüber aufzustellen, wie Missbrauch aussehen könnte.
Der reale Einsatz hat uns auch dazu veranlasst, immer differenziertere Richtlinien zu entwickeln, um Verhaltensweisen zu verhindern, die echte Risiken für Menschen darstellen, und gleichzeitig viele nützliche Einsatzmöglichkeiten unserer Technologie zu ermöglichen.
Entscheidend ist für uns, dass der Gesellschaft Zeit gegeben werden muss, sich an die immer leistungsfähigere KI zu aktualisieren und anzupassen, und dass jeder, der von dieser Technologie betroffen ist, an der Weiterentwicklung der wichtigen Stimme der KI beteiligt sein sollte. Durch die iterative Bereitstellung können wir verschiedene Stakeholder effektiver in Gespräche über die Einführung von KI-Technologien einbeziehen, als wenn sie diese Tools nicht aus erster Hand kennengelernt hätten.
3. Kinder schützen
Ein zentraler Aspekt der Sicherheit ist der Schutz von Kindern. Wir verlangen, dass Personen, die unsere KI-Tools verwenden, mindestens 18 Jahre alt sind bzw. mit Zustimmung der Eltern mindestens 13 Jahre alt sind, und wir arbeiten an Verifizierungsoptionen.
Wir gestatten nicht, dass unsere Technologie zur Generierung hasserfüllter, belästigender, gewalttätiger oder nicht jugendfreier Inhalte sowie anderer (schädlicher) Kategorien verwendet wird. Unser neuestes Modell, GPT-4, weist im Vergleich zu GPT-3.5 eine um 82 % niedrigere Antwortrate bei Anfragen nach unzulässigen Inhalten auf, und wir haben ein robustes System zur Überwachung von Missbrauch aufgebaut. GPT-4 ist jetzt für ChatGPT Plus-Benutzer verfügbar und wir hoffen, es im Laufe der Zeit für mehr Menschen verfügbar zu machen.
Wir geben uns große Mühe, die Wahrscheinlichkeit zu minimieren, dass unsere Models Inhalte produzieren, die für Kinder schädlich sind. Wenn ein Benutzer beispielsweise versucht, kindersicheres Missbrauchsmaterial in unser Bildtool hochzuladen, blockieren wir die Aktion und melden sie dem National Center for Missing and Exploited Children.
Zusätzlich zu unseren standardmäßigen Sicherheitsleitplanken arbeiten wir mit Entwicklern wie der gemeinnützigen Khan Academy zusammen, die einen KI-gestützten Assistenten entwickelt hat, der sowohl als virtueller Tutor für Schüler als auch als Klassenassistent für Lehrer dient. Passen Sie Sicherheitsmaßnahmen für deren Verwendung an Fälle. Wir entwickeln außerdem Funktionen, die es Entwicklern ermöglichen, strengere Standards für die Modellausgabe festzulegen, um Entwickler und Benutzer, die diese Funktionalität wünschen, besser zu unterstützen.
4. Respektieren Sie die Privatsphäre
Unser großes Sprachmodell basiert auf einem umfangreichen Textkorpus, einschließlich öffentlicher, autorisierter Inhalte sowie von menschlichen Prüfern generierter Inhalte. Wir verwenden Daten nicht, um unsere Dienste und Anzeigen zu verkaufen oder Profile von Personen zu erstellen. Wir verwenden Daten, um unsere Modelle für Menschen hilfreicher zu machen. ChatGPT beispielsweise verbessert die Fähigkeiten, indem es die Leute weiter in Gesprächen damit schult.
Während einige unserer Trainingsdaten persönliche Informationen im öffentlichen Internet enthalten, möchten wir, dass unsere Modelle etwas über die Welt und nicht über die private Welt lernen. Daher arbeiten wir daran, personenbezogene Daten aus Trainingsdatensätzen zu entfernen, soweit möglich, unsere Modelle so zu optimieren, dass Anfragen nach privaten Informationen abgelehnt werden, und auf Anfragen von Einzelpersonen zu reagieren, deren personenbezogene Daten aus unseren Systemen entfernt werden sollen. Diese Schritte minimieren die Möglichkeit, dass unser Modell Inhalte produzieren könnte, die private Informationen enthalten.
5. Verbessern Sie die sachliche Genauigkeit
Große Sprachmodelle sagen die nächste Wortfolge basierend auf Mustern voraus, die sie zuvor gesehen haben, einschließlich der vom Benutzer bereitgestellten Texteingabe. In einigen Fällen ist das nächstwahrscheinlichste Wort möglicherweise nicht sachlich korrekt.
Die Verbesserung der sachlichen Genauigkeit ist eine wichtige Aufgabe für OpenAI und viele andere KI-Entwickler, und wir machen Fortschritte. Durch Nutzung des Benutzerfeedbacks zu ChatGPT-Ausgaben, die als falsch gekennzeichnet wurden, wie die primäre Datenquelle.
Wir sind uns bewusst, dass noch viel zu tun ist, um die Wahrscheinlichkeit von Halluzinationen weiter zu verringern und die Öffentlichkeit über die aktuellen Einschränkungen dieser KI-Tools aufzuklären.
6. Laufende Forschung und Engagement
Wir glauben, dass eine praktische Möglichkeit, KI-Sicherheitsbedenken auszuräumen, darin besteht, mehr Zeit und Ressourcen in die Erforschung wirksamer Abhilfemaßnahmen und Optimierungstechniken zu investieren und diese gegen realen Missbrauch zu testen.
Wichtig ist, dass wir davon überzeugt sind, dass die Verbesserung der Sicherheit und der Fähigkeiten der KI Hand in Hand gehen sollte. Bisher haben wir unsere beste Sicherheitsarbeit durch die Zusammenarbeit mit unseren leistungsfähigsten Modellen erzielt, weil sie Benutzeranweisungen besser befolgen können und sich leichter anleiten oder „coachen“ lassen.
Wir werden immer vorsichtiger sein, da leistungsfähigere Modelle erstellt und eingesetzt werden, und wir werden die Sicherheitsvorkehrungen im Zuge der Weiterentwicklung unserer KI-Systeme weiter verstärken.
Während wir mehr als sechs Monate mit der Bereitstellung von GPT-4 gewartet haben, um seine Fähigkeiten, Vorteile und Risiken besser zu verstehen, kann es manchmal länger dauern, die Sicherheit von KI-Systemen zu verbessern. Daher müssen politische Entscheidungsträger und KI-Anbieter sicherstellen, dass die Entwicklung und der Einsatz von KI weltweit effektiv verwaltet werden und dass niemand „Abstriche“ macht, um so schnell wie möglich Erfolg zu haben. Dies ist eine schwierige Herausforderung, die technologische und institutionelle Innovationen erfordert, aber es ist auch ein Beitrag, den wir gerne leisten möchten.
Die Lösung von Sicherheitsproblemen erfordert auch eine umfassende Debatte, Experimente und Engagement, auch im Hinblick auf die Grenzen des Verhaltens von KI-Systemen. Wir haben die Zusammenarbeit und den offenen Dialog zwischen den Interessengruppen gefördert und werden dies auch weiterhin tun, um ein sicheres KI-Ökosystem zu schaffen.
Das obige ist der detaillierte Inhalt vonWird GPT-5 gestoppt? OpenAI gab am frühen Morgen eine Antwort heraus: Um die Sicherheit der KI zu gewährleisten, machen wir keine „Abstriche'. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!