Laut einem am 18. September Ortszeit veröffentlichten Forschungsbericht wies das chinesische Cloud-Sicherheits-Startup Wiz Research darauf hin, dass das Forschungsteam für künstliche Intelligenz (KI) von Microsoft versehentlich eine große Menge an privaten Datencaches auf GitHub geleakt hat. Diese Situation wird durch ein falsch konfiguriertes SAS-Token verursacht. Das KI-Forschungsteam von Microsoft veröffentlichte Open-Source-Trainingsdaten auf GitHub, legte jedoch versehentlich 38 TB anderer interner Daten offen, darunter Festplattensicherungen der PCs von zwei Microsoft-Mitarbeitern. Die Backups enthielten vertrauliche Informationen, private Schlüssel, Passwörter und mehr als 30.000 interne Microsoft Teams-Nachrichten. Microsoft antwortete an diesem Tag, dass das SAS-Token widerrufen worden sei, und führte eine interne Untersuchung der möglichen Auswirkungen durch. Durch dieses Problem wurden keine Kundendaten offengelegt und keine anderen Microsoft-Dienste gefährdet
Screenshot-Quelle: Offizielle Website von Wiz Research
Screenshot-Quelle: Offizielle Website von Microsoft
Das obige ist der detaillierte Inhalt vonMassives Datenleck! Das KI-Team von Microsoft hat versehentlich mehr als 30.000 interne Informationen durchsickern lassen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!