IT House News gab am Donnerstag Ortszeit bekannt, dass das Unternehmen ein neues Team bildet, um die „katastrophalen Risiken“ im Zusammenhang mit KI zu reduzieren und größere Probleme, die durch KI verursacht werden können, zu verfolgen, zu bewerten und zu überwachen und beschützen .
OpenAI erklärte: „Wir sind davon überzeugt, dass hochmoderne KI-Modelle über Fähigkeiten verfügen werden, die über den aktuellen Stand der Technik hinausgehen und der gesamten Menschheit zugute kommen können, aber sie bergen auch zunehmend ernste Risiken.“ Wir arbeiten daran, nukleare Bedrohungen, biologische, chemische und radioaktive Bedrohungen und andere große Risiken zu mindern, die durch eine Reihe von KI verursacht werden können, sowie die potenziellen Risiken, die durch die „Selbstreplikation“ der KI und andere Verhaltensweisen entstehen.
Bildquelle Pexels
OpenAI sagt, dass Unternehmen sicherstellen müssen, dass sie über das erforderliche „Verständnis und die Infrastruktur“ verfügen, um hochleistungsfähige KI-Systeme zu sichern. Das Team wird von Aleksander Madry, dem ehemaligen Direktor des Center for Deployable Machine Learning am MIT, geleitet und wird eine „risikoinformierte Entwicklungsrichtlinie“ entwickeln und pflegen, in der die Bemühungen des Unternehmens zur Bewertung und Überwachung großer KI-Modelle dargelegt werden.IT House berichtete zuvor, dass die gemeinnützige Organisation AI Security Center Ende letzten Monats eine kurze Erklärung abgegeben habe: „Die Verringerung des durch künstliche Intelligenz verursachten Risikos des Aussterbens wird auf die gleiche Ebene gestellt wie soziale Themen wie Epidemien und Atomkraft.“ „Diese 22-Wörter-Initiative wurde von vielen Führungskräften der KI-Branche unterstützt, darunter OpenAI-CEO Sam Altman.“
Das obige ist der detaillierte Inhalt vonOpenAI bildet ein neues Team, um sich vor „katastrophalen' Risiken im Zusammenhang mit KI zu schützen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!