Benutzer auf Reddit und Twitter begannen am 20. März mit der Meldung einer Sicherheitslücke in ChatGPT und veröffentlichten Screenshots, die zeigten, dass ihr ChatGPT-Webprotokoll Konversationstitel enthielt, mit denen sie nicht vertraut waren.
Während geteilte Chats auf diese Weise scheinbar nicht zugänglich sind, hat OpenAI den Chat-Verlauf vollständig gelöscht, als die Sicherheitslücke geschlossen wurde.
Branchenberichten zufolge kam es an diesem Tag auch bei ChatGPT zu einem größeren Ausfall, wobei die Benutzer, die Zugang hatten, bemerkten, dass der Service inkonsistent bereitgestellt wurde. OpenAI dokumentierte den Ausfall auf seiner Statusseite und stellte den Dienst innerhalb weniger Stunden nach der ersten Meldung wieder her.
Sam Altman, CEO von OpenAI, twitterte am 22. März: „Wir haben aufgrund eines Fehlers in der Open-Source-Bibliothek ein großes Problem mit ChatGPT festgestellt, und ein Fix wurde veröffentlicht und wir haben gerade eine kleine Anzahl davon überprüft.“ der Benutzer konnten die Titel des Konversationsverlaufs anderer Benutzer sehen, sagte Altman auf Twitter und sagte, dass das Problem zwar ernst sei, aber nun gelöst sei. Er gab weder den Namen der Open-Source-Bibliothek bekannt, in der das Problem auftrat, noch gab er den genauen Prozentsatz der betroffenen Benutzer an.
Bei Millionen von Besuchern jeden Tag könnten Datenschutzmängel, die auch nur eine kleine Anzahl von Menschen betreffen, zu einem weit verbreiteten Datenaustausch führen, und die „technische Obduktion“, die Altman verspricht, sollte diese Probleme beheben.
Jeder Chat, den ein Benutzer mit ChatGPT führt, wird als Instanz im Verlauf des Benutzers gespeichert, wobei ein Titel basierend auf dem Inhalt der Konversation festgelegt wird.
Am 27. März entdeckten einige Benutzer, dass ihr Verlauf Titel enthielt, die sich auf unbekannte Themen oder Funktionen bezogen, sowie Titel in anderen Sprachen, was darauf hindeutet, dass es sich bei der Sicherheitslücke um ein globales Problem handelt.
OpenAI-Unternehmen müssen möglicherweise ihre Datenschutzrichtlinien und -verfahren sorgfältig darlegen und den Benutzern versichern, dass ihre Open-Source-Lieferkette sicher ist und ähnliche Probleme nicht erneut auftreten.
Einige Benutzer, die Feedback auf Reddit gepostet haben, gaben an, andere Arten von Nachrichten gesehen zu haben, lieferten jedoch keine überprüfbaren Beweise, die diese Behauptungen stützen.
Ein Benutzer sagte: „Ich habe gesehen, dass die Telefonnummer einer anderen Person mit meinem Konto verknüpft ist. Ich mache mir darüber Sorgen, aber noch nicht so sehr, dass ich die App beenden muss.“
Ein anderer Benutzer sagte, er habe eine weitere mit seinem Konto verknüpfte E-Mail erhalten hat sich für ChatGPT Plus angemeldet, das 20-Dollar-Monat-Abonnement der Plattform, ohne jedoch Zugriff auf den Dienst zu erhalten.
Diese Sicherheitslücke kommt zu einem kritischen Zeitpunkt für OpenAI, einen Entwickler künstlicher Intelligenz, der gerade sein GPT-4-Modell veröffentlicht hat. Die GPT-4-Variante des Chatbots ist bereits für Benutzer verfügbar, die ChatGPT Plus abonnieren, und OpenAI hat versprochen, eine Leistung auf menschlichem Niveau zu liefern.
Der Konkurrent von OpenAI im Bereich künstliche Intelligenz, Google, hat kürzlich seinen eigenen Chatbot Bard für Benutzer im Vereinigten Königreich und in den Vereinigten Staaten eingeführt. Benutzer können sich über eine Warteliste für den offenen Zugang registrieren.
Berichten zufolge hat Google, um mit ChatGPT konkurrieren zu können, sein internes Team neu organisiert und die Hoffnung geäußert, dass Bard, das auf einer optimierten Version des 540 Milliarden Parameter großen Sprachmodells (LLM) LaMDA basiert, durch Benutzer schnell verbessert werden kann Rückmeldung.
Brancheninsider verglichen Bard und ChatGPT und wiesen darauf hin, dass ChatGPT und Microsofts GPT-4-basierter Bing-Chatbot im neuen Zeitalter der künstlichen Intelligenz zu herausragenden Konkurrenten werden werden.
Obwohl Microsoft und OpenAI bereits zusammengearbeitet haben, verlässt sich Google auf seine Marktbeherrschung, um Bard weitere Möglichkeiten zu bieten.
Google hat sich auch deutlich zu den Mängeln der generativen KI geäußert. Alphabet-Vorsitzender John Hennessy warnte im Februar, dass Google mit der Veröffentlichung von Bard gezögert habe, da es sich noch in der Entwicklung befinde, und in seinem Blogbeitrag, in dem er die Veröffentlichung von Bard ankündigte, nannte er es ein „Experiment“.
In internen Tests durch Branchenverbände funktionierte der Chatbot ähnlich wie frühere Versionen von Bing Chat, mit schnellen Reaktionszeiten für die Textgenerierung, aber einer Tendenz zu falschen oder fiktiven Ausgaben, die als „Halluzinationen“ bekannt sind.
Das obige ist der detaillierte Inhalt vonDurch eine Datenschutzlücke in ChatGPT können Konversationstitel zwischen Benutzern und Chatbots offengelegt werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!