Um ein verantwortungsvolleres System-Framework für künstliche Intelligenz aufzubauen, hat Microsoft bestätigt, dass es Software zurückziehen wird, die Bildanalyse zur Bestimmung persönlicher emotionaler Zustände verwendet. Gleichzeitig wird das Unternehmen auch die Verbreitung von Gesichtserkennungstechnologien begrenzen. Bestehende Kunden haben nur ein Jahr Zeit, um Azure Face zu nutzen, eine Reihe von KI-Tools, die versuchen, auf Stimmung, Geschlecht, Alter, Lächeln, Haare und das Tragen von Make-up zu schließen.
Sarah Bird, Hauptproduktmanagerin für Azure AI bei Microsoft, sagte: „Diese Bemühungen haben Fragen über einen mangelnden Konsens über Privatsphäre und Emotionen sowie die Unfähigkeit aufgeworfen, zwischen Gesichtsausdrücken und emotionalen Zuständen in relevanten Anwendungsfällen zu verallgemeinern , Geografie und Demografie wichtige Themen wie Kontakt“.
Berichten zufolge hat Microsoft überprüft, ob das Emotionserkennungssystem wissenschaftlich ist. Obwohl das Unternehmen keine Stellungnahme abgegeben hat, sieht es nun so aus, dass es den Algorithmus zur Ableitung des emotionalen Zustands einer Person anhand von Bildern möglicherweise nicht weiter verbessern kann, und Microsoft unterstützt möglicherweise neue Vorschriften und Gesetze für die Verwendung solcher Tools.
Microsoft wird nicht nur den Verkauf von Emotionserkennungstechnologie stoppen, sondern auch den Zugang zu Gesichtstechnologie einschränken. Kunden, die es künftig weiterhin nutzen wollen, müssen vorab eine Genehmigung einholen und entsprechende vertragliche Verpflichtungen übernehmen.
Was den tatsächlichen Betrieb angeht, ist unklar, ob Microsoft zusätzliche Einschränkungen verhängen wird oder lediglich von den Kunden die Unterzeichnung eines Haftungsausschlusses verlangen wird, um jegliche rechtliche Bestrafung für verschiedene Missbrauchsfälle zu vermeiden.
Derzeit fordert Microsoft seine Kunden lediglich dazu auf, „Situationen zu vermeiden, die die Privatsphäre verletzen oder die Technologie möglicherweise in Schwierigkeiten bringen“. Verwirrenderweise scheint Microsoft solche Verwendungen trotz gesetzlicher Vorschriften zur Vermeidung der Identifizierung von Minderjährigen nicht ausdrücklich zu verbieten.
Schließlich hat Microsoft seiner benutzerdefinierten neuronalen Sprachfunktion auch einige Einschränkungen auferlegt. Mit dieser Funktion können Kunden KI-synthetisierte Sprache basierend auf Aufnahmen realer Personen ausgeben.
Das obige ist der detaillierte Inhalt vonMicrosoft wird den Verkauf von Sentiment-Analyse-Technologie einstellen und den Einsatz von Gesichtserkennungstools einschränken. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!