Financial Associated Press, 19. September (Herausgeber Xiaoxiang)Seit dem Aufschwung der generativen künstlichen Intelligenz in diesem Jahr gibt es ständig Streitigkeiten über die Datensicherheit. Nach den neuesten Untersuchungen eines Cybersicherheitsunternehmens hat das Forschungsteam für künstliche Intelligenz von Microsoft vor einigen Monaten versehentlich eine große Menge privater Daten auf der Softwareentwicklungsplattform GitHub durchsickern lassen, darunter mehr als 30.000 interne Informationen über das Microsoft-Team.
Ein Team des Cloud-Sicherheitsunternehmens Wiz entdeckte, dass Open-Source-Trainingsdaten von Microsofts Forschungsteam durchgesickert waren, als sie im Juni auf GitHub veröffentlicht wurden. Die in der Cloud gehosteten Daten wurden über einen falsch konfigurierten Link durchgesickert.
Laut einem Blogbeitrag von Wiz hat das KI-Forschungsteam von Microsoft die Open-Source-Trainingsdaten zunächst auf GitHub veröffentlicht. Aufgrund einer Fehlkonfiguration des SAS-Tokens wurden die Berechtigungen jedoch fälschlicherweise so konfiguriert, dass das gesamte Speicherkonto gewährt wurde, und dem Benutzer wurde außerdem volle Kontrolle statt nur Leseberechtigung gewährt. Das bedeutet, dass sie vorhandene Dateien löschen und überschreiben können
Laut Wiz umfassen die 38 TB an geleakten Daten Festplattensicherungen der PCs von zwei Microsoft-Mitarbeitern. Diese Sicherungen enthalten Passwörter und Schlüssel für Microsoft-Dienste sowie mehr als 30.000 interne Microsoft-Teaminformationen von 359 Microsoft-Mitarbeitern
Wiz-Forscher wiesen darauf hin, dass der offene Datenaustausch ein wichtiger Bestandteil des KI-Trainings ist. Allerdings kann der groß angelegte Datenaustausch bei unsachgemäßer Anwendung auch große Risiken für Unternehmen mit sich bringen
Wiz CTO und Mitbegründer Ami Luttwak wies darauf hin, dass Wiz die Situation im Juni mit Microsoft geteilt habe und Microsoft die offengelegten Daten schnell gelöscht habe. Das Wiz-Forschungsteam entdeckte diese Datencaches, als es das Internet nach falsch konfiguriertem Speicher durchsuchte.
Als Antwort darauf kommentierte ein Microsoft-Sprecher anschließend: „Wir haben bestätigt, dass keine Kundendaten offengelegt wurden und keine anderen internen Dienste kompromittiert wurden
.“In einem am Montag veröffentlichten Blogbeitrag gab Microsoft an, einen Vorfall untersucht und behoben zu haben, bei dem ein Microsoft-Mitarbeiter eine URL zu einem Open-Source-Lernmodell für künstliche Intelligenz in einem öffentlichen GitHub-Repository geteilt hatte. Microsoft sagte, dass die offengelegten Daten im Speicherkonto Backups von Workstation-Konfigurationsdateien zweier ehemaliger Mitarbeiter sowie interne Microsoft Teams-Informationen über die beiden ehemaligen Mitarbeiter und ihre Kollegen umfassten.
Der umgeschriebene Inhalt ist: Quelle: Financial Associated Press
Das obige ist der detaillierte Inhalt vonBis zu 38 TB Daten sind versehentlich durchgesickert! Das KI-Forschungsteam von Microsoft „macht Ärger' Wie kann die Datensicherheit gewährleistet werden?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!