Neuigkeiten vom 17. März, diese Woche hat OpenAI GPT-4 veröffentlicht. Während der KI-Chatbot immer wieder neue Funktionen hinzufügt, wächst die Sorge, dass das KI-Tool auch für schändliche Zwecke missbraucht werden könnte. OpenAI-Mitbegründer und Chefwissenschaftler Ilya Sutskever gab in einem Interview zu, dass Menschen mit Hintergedanken künstliche Intelligenz leicht nutzen können, um anderen Schaden zuzufügen.
„Diese Modelle sind sehr stark und werden noch stärker“, sagte er. „In gewisser Weise kann man mit diesen Modellen sehr viel Schaden anrichten, wenn jemand wollte.“
Satskover erklärte, warum OpenAI keine detaillierten Informationen mehr zum Trainieren dieser Modelle bereitstellt hieß es in der Nachricht.
Er sagte in einem Interview: „Da sich die Leistung der künstlichen Intelligenz weiter verbessert, gibt es einen Grund, warum Sie sie nicht in ein paar Jahren offenlegen wollen.“ Allen wird klar sein, dass künstliche Intelligenz Smart Open Source unklug ist.“ OpenAI-CEO Sam Altman hat in der Vergangenheit ähnliche Ansichten geäußert.
In einem Interview Anfang des Jahres sagte Altman, dass das beste Szenario, wenn es um künstliche Intelligenz geht, „so unglaublich gut ist, dass ich es mir kaum noch vorstellen kann“, aber das Im schlimmsten Fall heißt es: „Löscht das Feuer auf uns alle.“
Letzten Monat sagte Altman auch auf Twitter, dass er glaube, dass Tools der künstlichen Intelligenz Menschen dabei helfen können, effizienter, gesünder und intelligenter zu werden, fügte aber auch hinzu, dass sich die Welt möglicherweise von beängstigenden KI-Tools entfernt, vielleicht aber auch nicht so weit entfernt sein, dass ihre Regulierung „lebenswichtig“ ist.
Das obige ist der detaillierte Inhalt vonWarum nicht die Details der ChatGPT-Schulung bekannt geben? Mitbegründer von OpenAI: Es ist leicht, großen Schaden anzurichten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!