OpenAI äußert Bedenken darüber, dass Benutzer Gefühle für seinen Chatbot entwickeln

PHPz
Freigeben: 2024-08-12 06:41:02
Original
890 Leute haben es durchsucht

OpenAI expresses concern about users developing feelings for its chatbot

GPT-4o wurde als erheblich verbessertes Modell für ChatGPT eingeführt. Seit seinem Debüt wird ChatGPT-4o für seine menschenähnlichen Interaktionen gelobt. Das hört sich zwar großartig an, aber OpenAI hat ein Problem bemerkt: Die Leute beginnen, den Chatbot als Menschen zu behandeln und emotionale Bindungen aufzubauen.

OpenAI hat beobachtet, dass Menschen eine Sprache verwenden, die „auf die Bildung von Verbindungen hinweisen könnte“. Das Unternehmen weist darauf hin, dass es Fälle gefunden hat, in denen Menschen eine Sprache verwendeten, die „gemeinsame Bindungen“ zum Ausdruck brachte. Dies wird aus zwei Hauptgründen als schlechte Nachricht bezeichnet.

Erstens: Wenn ChatGPT-4o menschenähnlich erscheint, können Benutzer alle Halluzinationen ignorieren, die aus dem Chatbot kommen. Im Kontext handelt es sich bei KI-Halluzinationen im Grunde um die falschen oder irreführenden Ergebnisse, die vom Modell generiert werden. Dies kann aufgrund fehlerhafter oder unzureichender Trainingsdaten passieren.

Zweitens könnten menschenähnliche Interaktionen mit dem Chatbot echte soziale Interaktionen unter den Benutzern reduzieren. OpenAI sagt, dass die Chatbot-Interaktionen möglicherweise für „einsame Menschen“ von Vorteil sein könnten, sie könnten sich aber auch auf gesunde Beziehungen auswirken. Das Unternehmen stellt außerdem fest, dass Menschen sogar anfangen können, mit Menschen zu sprechen, wenn sie den Eindruck haben, dass die andere Person ein Chatbot ist.

Das wäre schlecht, da OpenAI GPT-4o so konzipiert hat, dass es aufhört zu sprechen, wenn der Benutzer anfängt, darüber zu reden. Angesichts all dieser Bedenken sagt das Unternehmen, dass es nun überwachen wird, wie die Benutzer emotionale Bindungen mit ChatGPT-4o aufbauen. OpenAI gibt außerdem an, bei Bedarf Anpassungen am Modell vorzunehmen.

Holen Sie sich den KI-gesteuerten Diktiergerät PLAUD Note von Amazon

Das obige ist der detaillierte Inhalt vonOpenAI äußert Bedenken darüber, dass Benutzer Gefühle für seinen Chatbot entwickeln. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:notebookcheck.net
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage